Un’immagine fotografica è composta da milioni di pigmenti colorati (o in
bianco e nero) molto piccoli che, messi uno vicino all’altro, ci danno
l’impressione dei vari oggetti che la compongono. Questi punti disposti in
modo irregolare diventano visibili se ingrandiamo molto qualche dettaglio
dell’immagine e vengono indicati con il nome di grana.
L’immagine digitale si basa sullo stesso principio, con la sola differenza che la
disposizione dei puntini di base che la compongono è regolare. In genere è
una griglia a struttura quadrata ed i puntini sono detti pixel, acronimo di
“picture element”, elemento base dell’immagine, e sono facilmente visibili
nell’ingrandimento di un particolare. Queste immagini sono anche chiamate
immagini raster. Le immagini visive delle immagini raster dipendono dalla
densità dei pixel che le compongono.
Quando la griglia che forma l’immagine digitale è a struttura quadrata, anche
la forma dei pixel è quadrata e uno stesso numero di pixel dà luogo a uguali
dimensioni dell’immagine sia in orizzontale sia in verticale. Anche se il pixel
viene considerato sempre quadrato, come vedremo in seguito illustrando il
funzionamento dei dispositivi di acquisizione e visualizzazione, in pratica può
essere approssimato per ragioni tecniche con forme geometriche diverse.
RISOLUZIONE E DIMENSIONI
Per introdurre alcune caratteristiche importanti dell’immagine digitale,
anticipiamo in modo sintetico il processo di digitalizzazione. Possiamo
immaginare che la griglia regolare quadrata, chiamata griglia di
campionamento, venga sovrapposta all’immagine da digitalizzare. Ogni
quadrato della griglia darà origine ad un pixel ed il colore del pixel sarà la
media dei colori degli oggetti che cadono all’interno di quel quadrato. Più la
griglia di acquisizione è fitta, migliore è il risultato, ovvero meno evidente
appare la quadrettatura dell’immagine, chiamata anche pixellatura.
2
Il numero di pixel che compongono un’immagine costituisce la dimensione
dell’immagine. Questa viene espressa indicando separatamente il numero di
pixel orizzontali e verticali (ad es. 640x480).
Immagine salvata a bassissima risoluzione: notare la pessima qualità
Un’immagine digitale di una determinata dimensione può venire visualizzata
su qualche supporto (carta, monitor o altro) a diverse grandezze. Al variare
delle dimensioni di visualizzazione, cambia la risoluzione dell’immagine. La
risoluzione di un’immagine digitale, infatti non è una caratteristica
dell’immagine in sé, ma è sempre legata allle dimensioni del supporto e al
rapporto di scala o di ingrandimento che viene scelto. La risoluzione dipende
anche, come vedremo più avanti, dal processo di acquisizione, ovvero dalla
capacità del dispositivo di digitalizzare e di distinguere i più fini dettagli
dell’immagine originale.
La risoluzione si misura in punti/cm o in punti/pollice, cioè nel numero di
punti che sono contenuti in un centimetro o in un pollice: la risoluzione
quindi è una densità. Sarebbe stato più corretto scegliere una misura espressa
in funzione di un’area (punti/cm2 o pollice/cm2). L’uso di pixel quadrati,
infatti, dà luogo a densità uguali sia orizzontalmente sia verticalmente. In
genere come misura lineare è usato il pollice e la risoluzione si misura in dpi
(dots per inch) cioè in punti per pollice.
Il concetto di risoluzione lega quindi la dimensione dell’immagine con la
grandezza e con la densità dei punti con cui viene visualizzata.
3
Nella prima tabella riassumiamo la risoluzione di immagini di diverse
dimensioni visualizzate su monitor di varie grandezze (la grandezza del
monitor è espressa come misura in pollici della diagonale). Nella seconda
tabella è riassunta la grandezza in pollici di un’immagine al variare della
risoluzione e della dimensione.
Dimensione del monitor
Dimensione dell’immagine in pixel
14” 15” 17” 19” 21”
640 x 480 60 57 51 44 41
800 x 600 74 71 64 56 51
1024 x 768 95 91 82 71 65
Tabella 1 Risoluzione (in punti/pollice) per differenti formati.
Risoluzione
Dimensione dell’immagine in pixel 72 dpi 300 dpi 1500 dpi
192 x 128 6.78 x 4.53 1.63 x 1.09 0.33 x 0.23
384 x 256 13.55 x 9.05 3.25 x 2.16 0.66 x 0.43
768 x 512 27.12 x 18.08 6.51 x 4.35 1.30 x 0.86
1536 x 1024 54.24 x 36.16 13.02 x 8.67 2.59 x 1.73
3072 x 2048 108.50 x 72.32 26.04 x 17.37 5.21 x 3.48
6144 x 4096 216.99 x 144.67 52.08 x 34.71 10.43 x 6.94
Tabella 2 Grandezza dell’immagine (in cm) in funzione della risoluzione e delle dimensioni
in pixel dell’immagine.
Le tre grandezze sono legate da una semplice equazione:
Dimensione= Grandezza x Risoluzione
La risoluzione di un’immagine deve quindi essere sempre valutata in funzione
degli altri due parametri: dimensione e grandezza. E’importante osservare che una
determinata risoluzione può essere insufficiente se l’immagine deve essere
riprodotta o visualizzata in grandi dimensioni, mentre può essere più che
sufficiente se l’ingrandimento da raggiungere è più limitato. Molto importante
è anche la distanza da cui si osserva l’immagine: osservare un’immagine molto
ingrandita da una grande distanza, in termini di acuità visiva e di capacità di
distinguere i particolari, equivale ad osservare da vicino la stessa immagine più
piccola. Come vedremo più avanti, la capacità di distinguere i particolari ha un
limite nel nostro sistema visivo e la quantità di dettagli presenti in
un’immagine digitale dipende da come questa è stata acquisita.
4
SCALA TONALE E PROFONDITÀ DI
COLORE
Un altro parametro importantissimo nel valutare la qualità di un’immagine
digitale è la quantità di colori visualizzabili, chiamata scala tonale o dinamica
dell’immagine.
La scala tonale di un’immagine è, nel caso di un’immagine in bianco e nero,
l’insieme di tutti i livelli di grigio che la compongono. Nel caso di un
immagine a colori la scala tonale sarà costituita dall’insieme di tutte le tinte e
sfumature. Più è ampia la scala tonale di un’immagine maggiori saranno le
sfumature che si potranno percepire. Pensiamo alla scala tonale come ad una
sorta di tavolozza di colori o di grigi.
Per poter elaborare e gestire un’immagine digitale è necessario che
l’informazione contenuta in un pixel venga rappresentata in bit. Quanti più bit
vengono riservati per ogni pixel tanti più toni diversi sarà possibile riprodurre,
codificandone uno per ogni combinazione di bit utilizzata. Poiché il numero
di valori distinti che si possono codificare con un numero N di bit è 2n, con
un byte (8 bit) per pixel si possono codificare 256 livelli di grigio.
Il colore viene formato combinando tre scale tonali, ognuna per ciascuno dei
tre colori primari: rosso, verde e blu (RGB, dall’inglese red, green, blue). Il
colore è un fenomeno complesso e dedicheremo a questo argomento nuova
attenzione parlando della percezione. Per ora ci limitiamo a presentare le
proprietà e i parametri principali che caratterizzano un’immagine a colori.
La profondità di colore è il numero di bit riservati ad ogni pixel, ed è una misura
della capacità di visualizzare colori e sfumature.
Con 24 bit ogni pixel può assumere uno tra circa 16 milioni di colori diversi
(infatti 224=16.777.216), più di quanto l’occhio umano sia in grado di
distinguerne.
Perché ridurre la profondità di colore? In primo luogo per diminuire
l’occupazione di memoria necessaria a registrare e conservare l’immagine.
Un’immagine è infatti un tipo di informazione molto ricca che richiede una
gran quantità di memoria. L’occupazione di memoria di un’immagine è uguale
al numero di pixel che la compongono (le sue dimensioni) moltiplicati per la
profondità colore:
Occupazione = Dimensione x Profondità colore
Da quanto detto consegue che per visualizzare correttamente tutte le
sfumature di un’immagine di buona qualità abbiamo bisogno di un’elevata
risoluzione e di un elevato numero di colori.
5
E’facile calcolare la quantità di memoria necessaria a registrare un’immagine
di buona qualità. Ad esempio un’immagine che dovrà essere stampata alle
dimensioni di 10x15 cm, con una risoluzione di 300 dpi e una profondità di
colore di 24 bit, occupa più di 6 Mbyte.
Per ridurre l’occupazione di memoria di un’immagine si potrà perciò agire
sulla risoluzione, sulla dimensione o infine sulla profondità di colore.
Affinché l’immagine da noi prodotta o elaborata possa essere condivisa con
altri, occorrerà scegliere un formato di archiviazione. La tecnologia mette a
disposizione vari formati che prevedono varie profondità di colore, ma le più
utilizzate sono 4 o 8 bit per pixel (bpp) per le immagini in bianco e nero e 8, 24
o 32 bit per le immagini a colori.
Nel caso di una profondità di colore di 8 bpp, nelle immagini a colori viene
utilizzato un sistema di codifica dei colori mediante palette (tavolozza di
colori).
La palette è appunto una tavolozza, cioè una scelta di 256 colori (codificati in
8 bit) liberamente suddivisa sull’insieme più ampio dei milioni di colori
risultanti da una codifica a 24 bpp. I colori della palette possono dipendere
dal contenuto dell’immagine (un tramonto per esempio avrà molti gialli e
rossi, ma pochissimi verdi), ma possono anche essere determinati in funzione
dell’utilizzo dell’immagine (per esempio c’è una palette predefinita per lo
scambio di immagini a 8 bpp su Internet), dal dispositivo di visualizzazione
(Apple-Macintosh ad esempio ha definito una propria palette di sistema) o in
funzione di aspetti percettivi del sistema visivo (anche in questo caso vi sono
palette predefinite).
Qualsiasi palette scelta, questa viene convertita dal dispositivo di
visualizzazione in colori a 24 bpp (se dotato di sufficiente memoria) tramite
l’utilizzo di una struttura detta look up table (LUT).
La LUT è una tabella formata da 3 colonne e da un numero di righe pari al
numero di combinazioni possibili per un pixel a seconda dei bit utilizzati, in
genere 256. Il numero contenuto in ogni singolo pixel è utilizzato quindi
come indice per individuare la riga corrispondente della LUT, la quale, a sua
volta, contiene la codifica a 24 bit (8 per ogni canale RGB) del colore che
spetta a quel pixel.
0 R0 G0 B0
1 R1 G1 B1
2 R2 G2 B2… … …
… … …
255 R255 G255 B255
Tabella 3 Struttura di una LUT
6