7
realizzativi di un tale servizio) e gestionali (risorse umane, compiti e
manutenzione). Nella parte conclusiva, relativa agli sviluppi futuri, si sono
illustrati poi scenari che possono rappresentare utili indicazioni per lavori
successivi.
Valore aggiunto: I metodi e i materiali illustrati hanno trovato, in parte,
applicazione pratica nella analisi e gestione del desktop di un’azienda
ospedaliera campana attraverso un’attività di stage svolta nella struttura
stessa. Le varie attività di service hanno spaziato dalla collaborazione
amministrativa, alla gestione dei processi, alla figura di interfaccia con
aziende esterne, alla formazione del personale, allo sviluppo di un prototipo
esplorativo.
8
English version
Field: Nowadays, the desktop management service has become a real
necessity and nearly an obligation for any company that wants efficient
computer science services giving great benefits to the company’s progress.
No exceptions for the health company like the hospitals where the
confidential informations of the patients needs a special care . That’s why the
convergence towards an help desk system which score is a tool that allows not
only to a good comunication but also the maximum interactivity with the
users: the desktop management service.
Targets and outcomes: The purpose of this job is to give a guide line for the
health companies (the hospitals) that want to change the own service supply
strategies through the creation of procedures and the choice of appropriate
technologies for the user simplicity and for a better desktop . It is an accurate
analysis of the reference scene, the state of the art, the requirements, the
problematic ones, the norms, using also surveying statistics.
The score of this thesis is the taking care of the desktop management,
intentionally omitting the technical points, which treatments is largely
discussed in the existing literature.
In fact the thesis deals with the analysis of the problem solving, planning
features (analyzing the structure, the contents, the ways and the time for the
realization of this service) and management (human resources, tasks and
maintenances). In the last part there are illustrated future developments and
situations that could be used for further implementations.
9
Additional contribution:
The processes and the illustrated stuffs are partly used in the analysis and
desktop management in a hospital company (in our region), thanks to a stage
performed inside it.
Between the several service activities developed there are the administrative
collaboration, the processes management, the interfacing with external
companies, the training of the staff and in particular the implementation of an
exploring prototype.
10
INTRODUZIONE
Per desktop management si intende lo studio e la realizzazione di procedure
mirate alla soluzione dei problemi relativi all’utilizzo delle tecnologie
informatiche da parte di utenti inesperti (*).
Il servizio è finalizzato ad offrire la gestione completa dei posti di lavoro
locali e remoti partendo dalla pianificazione organizzativa e gestionale fino
all’attività di manutenzione.
I servizi di Desktop Management vengono erogati tramite un’infrastruttura
tecnologica che permette di raggiungere con strumenti telematici i posti di
lavoro dei Clienti per attività di:
• distribuzione del software;
• discovery elettronica dell’hardware e del software, finalizzato alla
costituzione ed al mantenimento dell’inventario;
• monitoraggio dei parametri di funzionamento dei sistemi;
• accesso remoto.
La gestione delle reti e dei sistemi rappresenta ormai l’aspetto cardine nel
mondo della telematica, sia per gli operatori pubblici o privati, sia per le
aziende che utiliz1zano reti locali e geografiche. L’efficacia della gestione è
infatti indispensabile per ottenere elevati livelli di qualità nell’erogazione dei
servizi, nei contesti aziendali e in quelli di rete pubblica.
(*) Definizione tratta da: www.infotn.it
11
La stabilità di alcuni standard di base consente la parziale automazione delle
attività fondamentali della gestione: la sorveglianza, la contabilizzazione
dell'utilizzo e la misura delle prestazioni, il controllo delle configurazioni
hardware e software.
Il lavoro di questa tesi sarà mirata all’analisi degli standard e le principali
tecnologie impiegate nella gestione delle reti e dei sistemi, fornendo chiare
indicazioni sui contesti e le modalità con cui le tecniche di “Network and
System Management” possono essere applicate.
12
CAPITOLO 1
IL DESKTOP MANAGEMENT
LO SCENARIO DI RIFERIMENTO
Abstract
In questo primo capitolo a carattere introduttivo, si tratta sostanzialmente di
quello che è lo scenario di riferimento riguardante il desktop management
facendo una breve panoramica sull’evoluzione delle tecnologie informatiche.
Si parla delle problematiche che sono evolute assieme alle tecnologie, delle
esigenze e quindi delle determinanti che hanno contribuito ad avallare alcune
scelte . Quindi si scopre come è mutato il rapporto utente tecnico informatico
e di conseguenza come le aziende si sono mosse con considerazioni su aspetti
di tipo economici e di sicurezza. Naturalmente, nella parte finale si
introducono i centri elaborazione dati, che cosa sono, la loro mission e le
opportunità che possono offrire all’utente.
13
1. IL DESKTOP MANAGEMENT
LO SCENARIO DI RIFERIMENTO
1.1 L’evoluzione delle tecnologie
Con l’avanzare della tecnologia, il bisogno di informazione diventa sempre
più grande; nasce quindi la necessità di avere strumenti capaci di soddisfare
questo bisogno, strumenti che siano sempre più avanzati dal punto di vista
tecnologico e nello stesso tempo semplici da usare.
Il primo passo verso il concetto di desktop management si può collocare nel
1960, allorquando la DEC introduce il PDP-1, il primo computer
commerciale con un monitor ed una tastiera per l'input; giunti a questo punto
risulta subito evidente che, oltre all’hardware, è importante considerare anche
l’interfaccia tra l’utente e la macchina: il sistema operativo.
Occorre ricordare che i sistemi operativi, prima chiamati monitors o
supervisors, fino agli ultimi anni ‘50 venivano sviluppati al solo scopo di
incrementare le prestazioni dei computer, ponendo in secondo piano la facilità
d’interazione con la macchina; da ciò derivava un senso di frustrazione ed
inadeguatezza da parte degli utilizzatori .
Una prima soluzione a questo problema fu data da Fernando Corbatò, del
MIT (Massachussets Institute of Technology), che produsse il CTSS
(Compatible Time Sharing System), il primo sistema effettivo di ripartizione
del tempo e per l’accesso remoto alla macchina.
14
All’inizio degli anni settanta, con il boom del calcolatore, le aziende capirono
subito che investire nelle tecnologie informatiche facilitava il lavoro, apriva
nuovi spiragli nella produttività ed aumentava i profitti, nascevano così le
prime reti di calcolatori anche per la piccola e media impresa.
La struttura della rete era costituita da un calcolatore centrale
(MAINFRAME) dove risiedevano sia gli applicativi che la base dati e da una
serie di terminali collegati al calcolatore.
Gli applicativi dunque giravano sul mainframe il quale serviva in real time i
vari terminali. In pratica il terminale era privo di memoria propria ed aveva
solo il compito di interfacciare l’utente con il calcolatore centrale; le risorse
della macchina centrale erano distribuite ai vari terminali dando l’impressione
all’utente di lavorare su di una macchina intelligente senza accorgersi che
tutti i processi erano sviluppati dalla macchina centrale.
Il vantaggio di una tale configurazione è presto detto: essendo tutti gli
applicativi centralizzati, la manutenzione e l’aggiornamento software e
hardware venivano destinati quasi esclusivamente al solo mainframe,
semplificando enormemente sia i problemi che i costi di gestione.
D’altro canto però, proprio perché il mainframe ripartiva le sue risorse, le
prestazioni dei singoli terminali erano molto limitate.
Con l’aumentare della complessità degli applicativi, si decise di fornire i
terminali di una memoria propria sulla quale veniva caricata la parte statica
dell’applicativo, in modo che il calcolatore centrale fungesse solo da
aggiornamento dei terminali alleggerendo così il mainframe di una parte di
lavoro.
La situazione attuale è ben diversa, condizionata anche dall’evolversi della
tecnologia e dalle esigenze dell’informazione. Oggi una rete è costituita, a
seconda della sua complessità, da una famiglia di server intercomunicanti a
15
cui fanno capo non più terminali, ma veri e propri personal computer che
prendono il nome di Workstation.
A differenza della prima generazione, dove i terminali visualizzavano solo
l’applicativo che girava sul calcolatore centrale, le workstation sono delle
vere e proprie macchine autonome dotate di un proprio sistema operativo
residente sulla memoria di massa.
Le capacità elaborative sono state distribuite sui computer client con una serie
di vantaggi che si possono riassumere:
- Maggiore indipendenza del programma dalle potenzialità dell’host in
quanto il programma viene eseguito dalla workstation.
- Relativa indipendenza da eventuali fermi macchina dell’ host; in tal
caso i dati possono essere memorizzati momentaneamente in loco.
- Insensibilità dei sistemi all’aumentare del numero di utenti
Anche gli applicativi hanno subito una grossa evoluzione, sia nell’interfaccia
che nella struttura e possono essere suddivisi in due categorie fondamentali:
1) Applicativi che richiedono piccole potenze di calcolo e che si avvalgono
quindi delle sole risorse della macchina su qui sono installati.
2) Applicativi che richiedono elevate potenze di calcolo e che pertanto
necessitano di architetture hardware di notevole potenza per poter essere
gestiti.
16
1) Gli applicativi del primo tipo vengono installati in loco sulle varie work
station; la base dati, anch’essa di dimensione limitata, può essere messa sulla
macchina locale nel caso in cui, ad accedere a quei dati sia solo l’operatore
che lavora su quel computer oppure trasferiti su di un apposito server se ad
accedere a quei dati sono più utenti; questa ultima soluzione prende il nome di
configurazione tipo file-server .
C’è da dire che con i nuovi sistemi operativi è possibile condividere file o
cartelle presenti su workstation con altri utenti della rete evitando di servirsi
di un server per la condivisione dati, questa scelta però è da scartare
assolutamente sia per motivi di sicurezza che per motivi di gestione.
Una cartella condivisa su di una qualsiasi macchina della rete è una porta
aperta ai più comuni virus che sfruttano questi file per diffondersi; una
macchina, quindi, ha maggiore probabilità di perdere definitivamente il suo
contenuto informativo.
Da qui la necessità di salvare le basi dati su di un apposito server (server di
storage) il quale oltre ad essere monitorato da appositi antivirus, è sottoposto
a backup giornaliero scongiurando così il pericolo di perdite di dati, inoltre è
intuitivo percepire che gestire base dati presenti su di un'unica macchina è
molto più facile che se questi fossero sparsi per tutta la rete.
2) Gli applicativi del secondo tipo richiedono potenze di calcolo superiori a
quelle disponibili su workstation, questi girano su apposite macchine dedicate
e vengono gestiti in remoto dagli utenti tramite GUI (graphical user interface)
con protocollo prioritario che nella maggior parte dei casi è il tcp/ip.
17
Applicativi di questo genere vengono detti client-server; all’utente, lato
client, è fornita un interfaccia che gli consente di gestire il programma, lato
server, che gira sulla macchina dedicata.
Negli anni 2000 poi l’avvento delle tecnologie web ha imposto un ulteriore
modello elaborativo che pur rientrando nella categoria client-server implica
per certi versi un ulteriore spostamento delle capacità di calcolo al sistema
centrale. In effetti sembra quasi un ritorno al passato.
Questa apparente contraddizione si spiega facilmente con la disponibilità di
architetture standard di riferimento non disponibili all’epoca dei primi sistemi
centralizzati.
Questo modello prevede che il programma viene eseguito in buona parte sul
server e per quanto riguarda l’I/O sul client, il quale ha quindi l’onere di tutto
il carico di lavoro di base legato alla grafica la quale viene eseguita all’
interno del terminale virtuale rappresentato dal browser web.
In pratica l’applicazione viene usata con un interfaccia del tutto simile a
quella impiegata per navigare in internet.
18
1.2 Le problematiche
La situazione attuale è frutto di un continuo evolversi delle tecnologie e delle
esigenze operative mirate all’aumento dei profitti ed alla semplificazione
della gestione con l’ottimizzazione delle risorse sia tecnologiche che umane.
Un attenta analisi non può però prescindere dalla valutazione delle
problematiche legate alla tecnologia ed all’uso di queste da parte dell’utente.
Oggi una work station è una vera e propria unità intelligente sulla quale è
presente un sistema operativo ed una serie di applicativi; per motivi di
completezza, ogni macchina è dotata di opportune periferiche che consentono
l’installazione di ulteriori applicativi o il caricamento di dati da supporti di
massa quali CD-ROM o floppy-disk. L’utente quindi si trova ad interagire
con uno strumento estremamente flessibile e personalizzabile con grandi
potenziali; si capisce subito che questo porta ad una serie di problemi legati
all’uso incorretto o inopportuno delle workstation .
Alcuni problemi nascono da un uso maldestro o improprio della tecnologie
da parte dell’utente, che è portato a considerare la macchina su cui lavora
come di proprietà propria e quindi si sente giustificato ad utilizzarla come più
ritiene opportuno.
Il desktop management cerca di prevenire questi tipi di problemi con una
politica di azione mirata ed efficace, ma allo stesso tempo non troppo
repressiva nei confronti degli utenti; infatti l’errore che a volte si rischia di
commettere è di essere troppo schematici dimenticando l’aspetto umano.