5
e società che sono riuscite, e riescono tuttora, a proporre prodotti che si
mostrano estremamente “pratici”.
Ogni volta che si pensa alla scuola, ed a quella italiana in particolare,
viene in mente un grande sistema centralistico con un carattere fortemente
burocratico, chiuso in se stesso, all’interno del quale gli operatori della
scuola seguono una logica di adempimento di tutto ciò che viene definito
dallo Stato attraverso atti legislativi. La scuola appare così come un gigante
che ha un’enorme difficoltà a muoversi e a recepire le innovazioni nel
campo tecnologico, appesantito com’è dalle catene burocratiche e dalla sua
stessa mole, dalla difficoltà degli insegnanti di recepire nuovi modelli e
strumenti di insegnamento ed è proprio per questo che sembra allontanarsi
sempre più dalla vita e dal mondo reale.
Eppure, dagli anni Sessanta, i momenti di innovazione nella scuola sono
stati molti, come dimostrano le scelte che, a livello istituzionale sono state
operate o si stanno operando, nonostante una serie di fattori che hanno
contribuito a rendere l’istituzione scolastica una «tartaruga pigra» incapace
di stare al passo con i tempi e quindi di offrire un servizio congruo alle
richieste della società.
6
1.1 - L’universo dell’ICT
Innanzitutto, prima di fare un discorso sull’evoluzione dell’ICT, occorre
fare una chiarificazione a livello terminologico. Infatti se in passato si
utilizzava il termine “informatica”, per indicare quel complesso di
strumenti che, basati sulla tecnologia microelettronica, trattavano ed
elaboravano i dati, attualmente si preferisce utilizzare la locuzione
“informazione e comunicazione tecnologica”, dall’inglese “information and
communication technology” o “ICT”, questo perché nel corso degli anni,
accanto alla trattazione del dato puro e semplice, si deve considerare il
processo d’informazione e, soprattutto, di comunicazione che la tecnologia
dei calcolatori e la telematica ha portato. In questo senso si deve preferire al
termine “informatica” quello di “scienze dell’informazione” o, meglio
ancora, quello di “scienze della comunicazione”.
1.1.1 – L’evoluzione nel campo delle tecnologie e delle
scienze dell’informazione
Pensando che solo cinquant’anni fa il primo computer occupava
un’intera stanza e che eseguiva calcoli talmente semplici da potere essere
oggi realizzati da un orologio da polso, si può sperare che nel prossimo
futuro il progresso tecnologico porti all’interno di tutte le case macchine,
7
che solo dieci anni fa si sarebbero facilmente definite fantascientifiche. Ma
questo tipo di ragionamento risulta sempre di più antistorico, poiché, forse,
in nessun altro campo si può constatare l’evoluzione che il mondo dell’ICT
ha incontrato nel suo mezzo secolo di storia e, almeno per quanto riguarda
internet, riferirsi al 1994 è come parlare della preistoria.
Una delle cose che si possono affermare nel campo dei personal è che il
prezzo dei calcolatori è costantemente in calo. Infatti, la prima amara
constatazione che si fa quando si acquista un personal
1
è che, dopo soli sei
mesi, il suo costo sarà, se non dimezzato, almeno calato di un terzo e che
con gli stessi soldi si potrà acquistare un computer molto più potente. Da
ciò si capisce che il rapporto prezzo/prestazioni è praticamente impossibile,
non solo per quanto riguarda le macchine di dieci o cinque anni fa, ma
anche per quelle che sono state acquistate un anno prima.
Se i prezzi calano ad un ritmo vertiginoso, le prestazioni dei processori,
che stanno all’interno dei processori, aumentano costantemente e, in questo
senso, è esemplificativa la “Legge di Moore”
2
, che afferma che il numero
1
Due personal presi dal medesimo rivenditore a sei mesi di distanza il prezzo passa da 4.633.000 a
2.421.000. La configurazione dei due computer è: Intel Pentium 200 MMX, mainboard Intel HX PCI
512KB cache, hard disk 2.1GB, 32MB RAM EDO, scheda video S3 Virge 3D 4MB RAM, Sound Blaster
Creative 16 PnP, modem 33.6 interno, floppy disk 1,44”, monitor 15” digitale, tastiera, mouse, stampante
HP Deskjet 820 CXI, ed il CD-ROM è un 12X per il primo personal ed un 24X per il secondo. [AA.VV.,
1997a] [AA.VV., 1998]
2
Gordon Moore è il fondatore di Intel Corporation e la sua legge, proposta nel 1971, non è stata
smentita.
8
dei transistor sui microprocessori raddoppi ogni diciotto mesi. Infatti,
prendendo come unità di misura i MIPS, “milioni di istruzioni per
secondo”, si passa dai 0,75 MIPS del microprocessore Intel 4004 ai 400
MIPS del processore Intel Pentium Pro.
Anche nel campo delle interfacce si è notata un’enorme evoluzione,
passando dalla “classica” tastiera, ereditata dalla macchina da scrivere, al
mouse, che con il movimento ed il “click” ha permesso di fare il passo
verso un’ottica di spazio-ambiente, dove operare, trascinare, incollare,
catturare gli oggetti, allo “strumento” naturale, la voce, che permette, e
permetterà meglio in futuro – la tecnologia necessità ancora di qualche
anno per un perfetto riconoscimento
3
–, di “dialogare” con una macchina,
cosa che, considerando le più concrete possibilità tecnologiche che
caratterizzeranno l’evoluzione del settore fino al Duemila, Alberto Mori,
presidente di “Videocomputer”, ritiene come «ostacoli da superare per
rendere il personal ancora più facile da utilizzare»
4
.
3
«Sui desktop i sistemi di riconoscimento dei comandi dimostrano già una buona accuratezza in aree
quali la navigazione in un’interfaccia utente e l’esecuzione di comandi standard. Quando si pensa ad un
computer senza tastiera, si spera sempre in qualcosa di più flessibile di un semplice sistema orientato ai
comandi. Un sistema di dettatura deve disporre di un vocabolario non di centinaia, ma di migliaia o
decine di migliaia di parole e frasi. A differenza di un sistema di riconoscimento di comandi, un sistema
di dettatura deve essere in grado di gestire la radice di una parola con numerose variazioni, come
plurali e possessivi. […] Tutti i sistemi disponibili al momento sono più affidabili con le parole separate
(parlato discontinuo o discreto) che con le frasi pronunciate in modo continuo. L’ultimo tentativo in
questo senso l’ha fatto proprio IBM con “Via Voice”, ma i risultati non sono ancora perfetti». [AA.VV.,
1997b, pag. 44]
4
[Rec., 1997, pag. 94]
9
Per comprendere meglio se e come un sistema di questo tipo potrebbe
essere realizzato nell’immediato futuro si può considerare il lavoro di Jim
Glass
5
, che con il suo gruppo ha già abbandonato il lavoro sul
riconoscimento del parlato per passare invece a lavorare alla comprensione
del parlato. Le due tecnologie sono enormemente differenti, in quanto nel
riconoscimento del parlato il computer si limita a determinare come
scrivere ogni parola che ascolta, mentre nella comprensione del parlato, che
è il passo successivo al riconoscimento, il computer deve individuare e
collegare tra loro tutta una serie di concetti in base al flusso di parole che
ascolta
6
.
L’utilizzo del calcolatore si sta progressivamente avvicinando al “senso
comune”, sia attraverso gli studi sull’intelligenza, sia attraverso gli studi sui
processi cognitivi, sia attraverso gli studi sul rapporto tra individuo e
macchina e sul rapporto tra individuo ed individuo mediato dalla macchina,
sia attraverso il software di produttività personale, che riporta le
conoscenze e le strutture operative dell’informatica a metafore di oggetti
concreti
7
.
5
Jim Glass è il principale ricercatore dello “Spoken Language System Group” del MIT di Boston.
6
[AA.VV., 1997c, pag. 142]
7
[Lar., 1988, pag. 218]
10
Per anni i produttori di software hanno continuato a parlare di linguaggi
“object oriented” e di un sistema operativo più “object oriented”. Secondo
questa visione, i dati e le applicazioni dovrebbero essere separati, in modo
da permettere agli utenti di lavorare con dati indipendenti dalle singole
applicazioni. Inoltre, l’implementazione ideale di questo schema dovrebbe
permettere di distribuire gli oggetti anche su più computer.
Microsoft stessa ha parlato per anni di questo concetto ed in questo senso
il concetto di “informazione alla portata delle proprie dita”, espresso da Bill
Gates nel 1990, che enfatizza l’idea secondo la quale un giorno gli utenti
riusciranno ad accedere dal loro computer a tutti i dati di cui hanno
bisogno, senza doversi preoccupare di dove questi dati risiedono realmente:
si deve andare oltre le applicazioni, per pensare solo ai dati
8
.
In un ottica di sempre maggiore naturalizzazione del computer, sorgeva
anche la necessità di rendere sempre più “amichevole”, in inglese “user
friendly”, non solo l’interfaccia, ma anche la natura e la struttura stessa dei
sistemi operativi e dei linguaggi di programmazione: la struttura stessa dei
linguaggi di tipo “visuale” è indicativa della direzione che il mondo
dell’ICT ha preso e continua a perseguire.
8
Questa visione generale dovrebbe portare un giorno al cosiddetto sistema Cairo, sviluppato da
Microsoft. [AA.VV., 1997c, pag. 139]
11
Così, nella rapida evoluzione del mondo delle scienze dell’informazione,
si nota in tutti i programmi l’enorme salto qualitativo, dovuto all’intervento
di esperti in ergonomia cognitiva nella loro progettazione. I team di
realizzazione del software furono composti non più solo da informatici,
ingegneri e matematici, ossia figura provenienti dal ramo tecnologico-
scientifico, ma iniziavano a comparire altre figure, quali psicologi,
pedagogisti, sociologi, che fornivano le loro conoscenze per rendere più
“umane” le applicazioni che venivano installate sui calcolatori.
Sulla strada della naturalizzazione si vedono chiaramente gli sforzi
intrapresi per passare da un’interfaccia carattere, o CUI
9
, ad un’interfaccia
grafica, o GUI
10
: per anni avevano dominato sistemi operativi e linguaggi –
linguaggio macchina, DOS, UNIX - basati solamente su interfacce con
pochissima grafica ed estremamente freddi, poco simpatici. Con la
comparsa di Macintosh di Apple e del sistema operativo Windows di
Microsoft la grafica, i suoni, le icone, il mouse entrano negli ambienti di
lavoro, di studio, nelle case e la terminologia legata alle loro operazioni
diventa comune: ormai non si digita solamente, ma si “punta”, si
“seleziona”, si “clicca”, si “trascina”, si “incolla”, si “ruota”.
9
“CUI” è acronimo di “Caracter User Interface”.
10
“GUI” è acronimo di “Grafic User Interface”.
12
Nella direzione della familiarizzazione e dell’adeguamento alle capacità
cognitive si possono comprendere le metafore della scrivania e delle
finestre proposte inizialmente da Apple e successivamente da Microsoft, la
cui paternità è tuttora causa di diatriba tra queste due società. Lo scopo
palese delle metafore dell’ambiente di lavoro e dell’apertura su “mondi
diversi” è proprio quello di rendere il più possibile amica e naturale
l’interfaccia col computer.
Per capire la diffusione dell’ICT è meglio differenziare l’angolatura con
cui si guarda al problema:
a) situazione a livello mondiale:
- dopo che alcune conclusioni di EITO, European Information
Technology Observatory, avevano mostrato che nel 1996 era
aumentato il gap tra l’introduzione di nuove tecnologie in Europa e
negli Stati Uniti e la distanza crescente tra i trend del Vecchio
Continente e quelli dell’area Asia-Pacifico e nel teatro europeo
l’Italia aveva recitato un ruolo di ultimo piano
11
, i dati del primo
semestre del 1997, presentate da Assinform, mostrano che il
mercato informatico in Italia ricomincia a tirare in maniera diversa
11
«Sempre secondo EITO sono necessarie diverse condizioni per un effettivo rilancio nel nostro
paese degli investimenti nell’IT, tra le quali il rilancio dell’economia ed uno sforzo innovativo da parte
13
nei vari comparti, con addirittura un più 18% per i personal
venduti
12
;
b) situazione italiana:
- pochi dati sono sufficienti per capire la diffusione del personal
computer in Italia. Nel 1996 in Italia sono stati spesi 76.600
miliardi nel settore dell’ICT, di cui il 35% nel settore informatico in
senso stretto, il 61% nelle telecomunicazioni ed il 4% nel mondo
dei prodotti per l’ufficio. Per quest’anno, nel solo settore
dell’informatica, è prevista una crescita del 4,3% rispetto al 1995,
ciò significa che saranno venduti 1.600.000 personal computer, e si
prevede che nel 1998 saranno 200.000 in più. Per quanto riguarda
invece il campo della multimedialità, il giro di affari messo in
movimento in Italia è pari a 3.200 miliardi, cifra che rappresenta il
4% sul totale del mercato ICT in Italia, due terzi dei quali sono
ripartiti nell’area consumer.
Da un’indagine dell’ANEE, Associazione Nazionale dell’Editoria
Elettronica, mostra che il mercato dei CD-ROM è stimato per il 1997 in
360 miliardi di lire, con un incremento del 14% rispetto all’anno
della pubblica amministrazione». [Cer., 1997a, pag. 27]
12
[Cer., 1997b, pagg. 1 e 63]
14
precedente
13
. Quanto al mercato dei servizi editoriali su internet, ANEE
segnala un’esplosione tra il 1996 ed il 1997, grazie all’ingresso su Web di
grandi editori della carta stampata e di neoeditori elettronici.
Da un’ulteriore indagine svolta da ALCHERA risulta che i possessori di
lettori CD-ROM sono pari a 3 milioni e 279 mila persone, il 33% delle
quali dichiara di utilizzare il lettore tutti i giorni. Da segnalare, inoltre, le
percentuali degli user con elevato grado di istruzione – il 76% è in possesso
di un titolo di studio di media superiore o universitario – e con un’età
superiore ai 45 anni – 40%. Ulteriormente si stima in circa il 50% la
sovrapposizione del CD-ROM ad Internet, fatto che testimonia la continuità
del mercato multimediale off-line, seppure incalzato dalla multimedialità
interattiva in rete
14
.
1.1.2 – Trend di sviluppo
Secondo EITO, per l’informatica italiana il 1998 si prospetta come
l’anno migliore degli ultimi dieci. Il tasso di sviluppo previsto è del 7,7%,
quasi due punti in più di quello stimato per il 1997. I progressi risultano
essere buoni, ma sempre inferiori a quelli degli Stati Uniti – più 12% nel
13
«Il mercato è trainato dal segmento consumer con 225 miliardi di lire – con un più 21% rispetto al
1996 -, mentre il segmento professionale è stimato intorno ai 135 miliardi di lire – con un più 4%
rispetto al 1996». [Sor., 1997, pag. 30]
14
«Il dato fornito da ALCHERA sugli utenti consumer di Internet diverge, per eccesso, dal
15
1997 e più 10% nel 1998 –, tuttavia il gap si riduce e ciò dopo parecchi
anni di ampliamento della forbice. Cinque sono, sempre secondo EITO, i
fattori di trascinamento del mercato europeo: Internet
15
, Euro e Anno 2000,
processi di ristrutturazione delle aziende, diffusione di pacchetti applicativi
sempre più evoluti nei contenuti e, infine, sviluppo dei servizi.
Il business europeo dell’ICT è stimato da EITO in 350 miliardi di ECU
nel 1997 e la voce relativa ai servizi ha raggiunto il 59% della spesa
complessiva. In dieci anni il rapporto tra i fatturati hardware-software e
servizi risulta invertito. In particolare, i servizi telecom toccano il 41%
della spesa complessiva, mentre quelli IT raggiungono il 18%
16
.
Da un’intervista
17
fatta ad alcuni manager di importanti aziende del
settore informatico si può intendere quali saranno i trend di sviluppo a
livello tecnologico per i prossimi anni e quali cambiamenti porteranno
internet e le reti nel modo di produrre e di lavorare: Michael Cowpland
18
e
Giuseppe Dovera
19
vedono nel linguaggio Java e nei network computer
20
la
corrispondente dato contenuto nel rapporto EITO – 1.359.000 - e, per difetto, dalle previsioni di
Datamonitor – 2.350.000». [Sor., 1997, pag. 30]
15
«Internet, secondo Bruno Lamborghini, presidente EITO, è il principale motore dello sviluppo”.
[Mor., 27/10/1997, pag. 47]
16
[Mor., 1997, pagg. 1 e 47]
17
[Ros., 1997a, pagg. 93-99]
18
Presidente e Amministratore delegato di Corel Corporation.
19
Master Solution Architect IBM.
20
«Esistono enormi margini di crescita se si considera che i network computer sono destinati a
16
risposta alla prima domanda e ritengono che nel futuro internet si evolverà
verso un maggiore uso ed una più stretta integrazione tra internet, intranet
ed extranet; Alberto Mori
21
pensa che siano la Realtà Virtuale ed il
riconoscimento vocale gli unici due ostacoli esistenti per rendere il personal
ancora più facile da utilizzare; Alessandro Casaletti
22
vede soprattutto una
forte evoluzione del settore DSL, Digital Subscriber Link, che consente la
trasmissione su linea analogica di dati da 3MB a 10MB per secondo; Giulio
Rentocchini
23
ritiene che la digitalizzazione e la comunicazione attraverso
le reti globali saranno sempre più ampie e questo significherà, in concreto,
internet, videoconferenza, multimedialità sempre più spinte ed alla portata
di tutti; Stefano Spocci
24
e Giulio Caletti
25
pensano che Internet ed Intranet
cambieranno il modo di lavorare e di comunicare, mediante tecnologie, il
“visual computing”, che offrono mezzi straordinari per gestire a bassissimo
costo informazioni complesse con un personal computer.
All’inizio del 1997 la penetrazione di Internet in Italia era pari a quella di
Grecia e Spagna, il distacco dagli Stati Uniti e dai Paesi Scandinavi
sostituire oltre il 50% dei modelli desktop aziendali: un mercato potenziale da 30 miliardi di dollari».
[Ros., 10/1997b, pag. 93]
21
Presidente Videocomputer.
22
Direttore commerciale Motorola ISG Reti Dati.
23
Amministratore delegato Epson Italia.
24
Amministratore delegato Intel Corporation Italia.
25
Marketing Manager Enterprise & Carrier Businnes Unit 3Com Company.
17
sembrava difficilmente raggiungibile. Ora l’Italia sta colmando il divario:
lo scorso anno gli abbonamenti residenziali erano a quota 115.000, nel
1997 sono saliti a 270.000 con un aumento del 135%. Sul fronte degli
abbonamenti business, nel 1996, il conto era di 39.000, oggi sono circa
75.000
26
. Le previsioni per il 2000 hanno risvolti ancora interessanti,
secondo la società di consulenza, gli abbonati residenziali arriveranno a
2.000.000, pari cioè al 10% del totale delle famiglie italiane, e quelli
business toccheranno quota 300.000, in maggior parte microimprese del
terziario avanzato.
La vitalità del mercato italiano è confermata anche dallo studio
“Evoluzione di Internet e del WWW in Europa”: attraverso il motore di
ricerca AltaVista, i ricercatori hanno calcolato l’evoluzione della pagine
Web nei Paesi dell’Unione europea, salite da 3.400.000 nel Gennaio 1996 a
24.480.000 nel luglio di quest’anno. Nello stesso periodo, in Italia, le
pagine Web sono balzate da 320.000 a 2.870.000. Il salto ribalta la
situazione italiana rispetto agli abbonati paganti e pone l’Italia al terzo
posto, dopo Germania e Gran Bretagna e prima della Francia
27
.
Internet, nata un po’ come esperimento ed un po’ come rete per il mondo
26
Databank Consulting prende in considerazione unicamente gli abbonati paganti e non il
complessivo di familiari, studenti universitari ed utenti aziendali collegati, ma con un unico
abbonamento.