Introduzione - il cinema digitale
“[..] «cinema digitale». Un’espressione,
quest’ultima, tanto onnipresente e
onnicomprensiva da risultare spesso
improduttiva [...]1”
Davide Cazzaro
Il cinema e il digitale. Nell'ultimo decennio il binomio più acclamato e bistrattato,
che ha infarcito decine di discorsi e discussioni, senza però essere mai compreso
appieno. Il “cinema digitale” è sulla bocca di tutti, tra entusiasti e detrattori, tra finti esperti
e professionisti che quotidianamente ormai ci lavorano.
La tecnologia digitale è entrata nel mondo della settima arte grazie agli effetti
speciali, o meglio sarebbe definirli effetti visuali, la cui lavorazione è diventata più veloce
con la traduzione in codice binario dell'immagine, in sostituzione degli “antichi” metodi
tramandati dall'epoca di Méliès. In poco tempo questo metodo è passato dall'essere una
straordinaria necessità per poche scene alla normalità per tutta la pellicola impressionata
in ripresa, dando il via ad una riorganizzazione di tutta la fase di post produzione, che
prende in parte spunto dalla tecnica televisiva. Assieme ai proiettori di ultima generazione,
poi, con la mutevolezza del loro risultato visivo dovuta alla manovrabilità di tutti i parametri
– luminanza, crominanza, etc etc che prima erano standard e non modificabili – si sono
fatti avanti dubbi sul paradigma della cinematografia secondo cui l'autore delle luci è il
custode dell'immagine il quale assicura che ciò che esce dal set è pronto per essere
quello che poi vedrà lo spettatore. E per alcuni a dare ancor più adito al dubbio sul
fondamento del ruolo del direttore della fotografia si sono aggiunte anche le videocamere
digitali professionali di massimo livello. Videocamere che, allo stato attuale, hanno dato
vita a parecchie discussioni artistiche, di metodo, di basi del cinema.
Questo elaborato, concentrato sull'introduzione e l'evoluzione delle videocamere
digitali di Alta Definizione, si pone l'obiettivo di spiegare il fenomeno, com'è nato e come si
sta sviluppando, attraverso opinioni e commenti di esperti sia a livello internazionale che
1 Il moviemaking digitale a cura di Davide Cazzaro in Segnocinema, Vicenza, Cineforum, 2009, n° 154, pag.
12.
3
locale. L'idea di “mettere un po' d'ordine” all'interno di questa materia ancora confusa
viene da esperienze dirette con questo nuovo modo di affrontare la produzione di opere
destinate – si spera – al cinema e, in generale, alla trasmissione video. La
contestualizzazione storica effettuata nel primo capitolo dipinge il quadro della nascita e
dello sviluppo del digitale e il suo rapporto con il fraterno antagonista: l'analogico. La
sezione successiva espone in maniera particolareggiata la fascinazione, i dubbi e
l'entusiasmo di registi hollywoodiani che hanno avuto a che fare con questa tecnica e che
hanno cercato di approfondirne le dinamiche. L'attenzione, infine, si va a concentrare sulla
Red Digital Cinema Camera Company, società che propone un nuovo modo di pensare al
cinema e alla fotografia, due mezzi che sempre hanno dimostrato una forte relazione e
che ora stanno letteralmente convergendo in un unico strumento.
Per esprimere al meglio questo mondo di immagini create secondo un codice
binario, e determinate da un numero di pixel su una superficie, ho sia studiato casi
riguardanti importanti personalità del settore cinematografico riconosciute a livello
mondiale, che attinto alla personale esperienza di professionisti che lavorano in questa
zona e che quasi quotidianamente utilizzano mezzi così avanzati. Cesare Bastelli,
Riccardo Guernieri e Lorenzo Pezzano, che ringrazio per la disponibilità, hanno messo a
nudo la loro esperienza, dando un contributo importante a questo lavoro. Il primo,
direttore delle fotografia, aiuto regista e regista bolognese ha lavorato in alcune delle
produzioni italiane più importanti, soprattutto con i fratelli Avati dei quali è stretto
collaboratore. Riccardo Guernieri, nonostante la giovanissima età, ha un ricchissimo
curriculum come montatore, operatore e regista di videoclip musicali di caratura nazionale
nonché una considerevole dimestichezza in eventi live di importanza nazionale e
transnazionale in cui ha usato frequentemente attrezzatura di tipo digitale. Lorenzo
Pezzano, infine, da svariati anni si occupa di televisione, videoclip, corti e lungometraggi
ricoprendo vari ruoli, dall'operatore alla fotografia. Vagliando le loro opinioni ho ricostruito
pregi e difetti della ripresa in digitale, integrandole con commenti di registi e direttori della
fotografia che hanno dato un contributo molto importante all'evoluzione del pensiero e
dell'utilizzo del moviemaking digitale.
Infine, come premessa al mio lavoro, vorrei fare una breve puntualizzazione sul
termine Alta Definizione, spesso bistrattato e mal adoperato: esso nasce in
contrapposizione a SDTV, ovvero Standard Definition TeleVision 2, e sta ad indicare
2 576 (PAL) o 480 (NTSC) linee di risoluzione verticale delle immagini e frequenza rispettivamente di 25 o
30 immagini al secondo con scansione interlacciata.
4
risoluzioni video che vanno dal 720p al 1080p (il cosiddetto FullHD), ma spesso viene
utilizzato in modo più generico per indicare anche definizioni cinematografiche, quelle
segnate con nK, dove n è il numero di migliaia di pixel lungo l'asse orizzontale. Spesso,
quindi, il termine Alta Definizione o High Definition contratto in HD, va ad indicare
indifferentemente formati HDTV, tipici della televisioni e primi ad essere utilizzati nelle
sperimentazioni cinematografiche, e formati tipicamente legati al cinema come il 2K e il
4K.
5
1- Il digitale tra foto e video
Due sono fondamentalmente i fattori contro i quali l'evoluzione del video e della
fotografia digitale combattono: la superficie e la memoria. La superficie dei sensori deve
essere miniaturizzata, portata ad essere sempre più piccola ma con integrate sempre più
funzioni, mentre i supporti devono essere capienti: quanta più memoria possibile (in
schede a volte delicate e complesse) per moli di dati sempre maggiore, perchè l'Alta
Definizione significa un maggior numero di informazioni. La corsa del passaggio al digitale
sta proprio in queste due correnti che spingono verso l'unico grande obiettivo di poter
vedere su uno schermo (televisivo o da proiettore) con una ricchezza di dettagli e colori
vicina alla nostra vista. La percezione della macchina è modellata sulla percezione
umana, ecco per esempio perchè nelle camere broadcast la luminanza è maggiormente
considerata rispetto alla crominanza; ed ecco perchè si cercano le alte e le altissime
risoluzioni: il Full HD in televisione, il 2K, il 4K, l'8K e ancora più su nel cinema.
Questi standard hanno origine con scopi differenti ma fortemente collegati: il
comparto televisivo cerca il coinvolgimento dello spettatore “come fosse al cinema”, le
definizioni cinematografiche (dal 2K in su) nascono a sono a uso e consumo del reparto
effetti speciali. Il bisogno sempre più impellente di manipolare l'immagine obbliga la
ricerca di risoluzioni del fotogramma abbastanza alte per permettere modifiche senza
perdita di qualità e mantenendo la verosimiglianza. A livello di standard e grandezze i
nuovi formati nascono dall'aspect ratio della pellicola, nel momento in cui si inizia la
profilassi della scansione digitale per le fasi intermedie della post-produzione
cinematografica. Sebbene non vi sia un unico insieme di dimensioni standard è normale
riferirsi a "NK" qualità delle immagini dove n è un numero intero (solitamente piccolo) che
si traduce in una serie di risoluzioni reali, a seconda appunto del formato della pellicola:
per un aspect ratio 4:3 (circa 1.33) il fotogramma (in qualunque formato esso sia) si adatta
in orizzontale in modo tale che la risoluzione orizzontale sia esattamente 1024xn punti.
Per esempio la risoluzione di riferimento del 2K è 2048x1536 pixel, mentre del 4K è
4096x3072 pixel. Tuttavia 2K può riferirsi anche a risoluzioni come 2048x1556,
2048x1080 o 2048x858 pixel, mentre 4K anche a 4096x3112, 3996x2160 o 4096x2048
pixel. Il DCI (Digital Cinema Initiatives 3) ha poi definito gli standard: 2048x1080 a 24 fps o
48 fps per il 2K, 4096x2160 a 24 fps per il 4K.
L'Alta definizione “televisiva”, invece, al momento si ferma al Full HD, oggi creatore
3 Digital Cinema Initiatives , LLC (DCI): creato nel marzo 2002, ed è una joint venture tra Disney, Fox,
Paramount, Sony Pictures Entertainment, Universal e Warner Bros. Studios. Lo scopo primario è quello di
stabilire e documentare le specifiche volontarie per un'architettura aperta del cinema digitale che assicuri
un livello elevato e uniforme di prestazioni tecniche, affidabilità e controllo di qualità.
6
di grande scompiglio tra rivenditori e clienti di apparecchi televisivi di ultima generazione,
pur tendo conto che sono in fase di studio nuovi formati come l'UHDTV (Ultra High
Definition Television) giapponese.
In questa giungla di numeri e caratteristiche viene spontaneo chiedersi come
possano essere compatibili i formati tra una casa produttrice e l'altra e se esista un ente
super partes capace di mettere un certo ordine in questo mondo. Dal 1916 esiste la
SMPTE, nata inizialmente come SMPE, Society of Motion Pictures Engineers, a cui è
stata successivamente aggiunta la T ad indicare Television. Questa associazione
professionale internazionale ha sede negli Stati Uniti e riunisce i tecnici dell'industria
cinematografica e televisiva con la prerogativa di stabilire gli standard internazionali
nell'ambito del video, dell'audio, della fotografia (anche nel settore medico). Per esempio
della SMPTE è lo standard delle barre colore, ma ha definito (e definisce) tutti i formati di
trasmissione e registrazione di cinema e televisione, nonchè le interfacce fisiche di
connessione per la trasmissione di segnali televisivi e altri dati (il timecode SMPTE,
l'interfaccia SDI, etc etc).
Ora diventa d'obbligo fare un passo indietro e capire come si è formato l'attuale
panorama televisivo e cinematografico; l'evoluzione digitale parte da piccolissimi elementi:
i sensori.
1.1 La base delle videocamere moderne: sensori e color filter array Bayer
1.1.1 CCD e CMOS: nascita e sviluppo
Alla base delle fotocamere e videocamere contemporanee, siano esse amatoriali o
professionali, ci sono i sensori. Questi piccolissimi “marchingegni” elettronici nascono in
tempi non sospetti, quando ancora la tecnologia digitale era pura sperimentazione e
l'utilizzo di questi piccoli elementi basati sui pixel (microscopiche cellette fotosensibili
quadrate o rettangolari) era ben lungi dall'essere finalizzato.
Nonostante l'utilizzo primigenio del CCD e l'avvento del CMOS solo in anni più
recenti, questi ritrovati elettronici nascono nello stesso decennio e, quasi, dalla stessa
azienda: la Fairchild Semiconductor4.
Nei primi anni Sessanta alla divisione semiconduttori della Bell Laboratories,
Williard Boyd e George Smith5 lavorano alla creazione di un nuovo circuito integrato, un
4 La Fairchild Semiconductor ha poi creato la Fairchild Imagining, a tutt'oggi impegnata nella produzione di
CCD e Cmos per il mondo foto e video digitale, non tralasciando la branca scientifica.
5 Premiati con il Nobel per la Fisica nel 2009 proprio per il loro lavoro sui CCD.
7
dispositivo ad accoppiamento di carica formato da uno strato fotoconduttivo capace di
riceve l'immagine dall'obiettivo, convertirla in segnale elettrico e inviarla ai circuiti di
trasformazione che ne consentono la registrazione o la riproduzione istantanea su mirino
o monitor di controllo: è un embrionale CCD, ovvero Charge-Coupled-Device. Uscito dai
laboratori nel 1969, il CCD diventa da subito interesse di molte compagnie, tra cui la già
rinomata Fairchild Semiconductor, la RCA e la Texas Instruments che si lanciano nello
sviluppo dell'invenzione, cosa che del resto fa anche Sony attrezzandosi per produrre
CCD destinati ai propri camcorder grazie alla spinta di Kazuo Iwama. La corsa vede
“vincitrice” la Fairchild Semiconductor nel 1973, la quale mette in commercio il primo CCD
della storia: il famoso 100x100 pixel utilizzato poi dall'ing. Sasson per la sua macchina
fotografica.
Qualche anno prima l'ingegnere elettronico Frank Wanlass, impiegato presso la
Fairchild Semiconductor, aveva compiuto diversi studi su MOS (Metal Oxide
Semiconductor), NMOS6 e PMOS7 arrivando alla creazione del CMOS8, Complemetary
Metal Oxide Semiconductor, ovvero un transistor caratterizzato dall'accoppiamento
complementare di semiconduttori sensibili alla luce con dispositivi di lettura degli stessi.
La peculiarità di questo sistema sta nell'acquisizione delle informazioni poichè ogni pixel è
letto singolarmente e identificato dalla sua posizione (secondo le coordinate righe e
colonne).
Il livello tecnologico dell'epoca premia il CCD in quanto riesce a esaltarne le ridotte
dimensioni del pixel e la relativa semplicità, differentemente dal CMOS che per l'epoca
richiede un livello di precisione e miniaturizzazione ancora non raggiunto. Per questo gli
anni Settanta e Ottanta sono caratterizzati dal grande sforzo nello sviluppo dei CCD,
mentre i sensori CMOS sono solo periodicamente ripresi in mano, almeno fino agli anni
Novanta. Solo pochi sporadici intrepidi seguono la via di un minimo sviluppo del MOS:
Hitachi e Matsushita perseguono lo studio di questa tecnologia soprattutto per camcorder
dalle alte velocità e basse risoluzioni.
I primi impieghi nel campo video professionale del sensore originario Bell si hanno
già attorno agli anni Ottanta, mentre il CMOS dovrà appunto aspettare la metà degli anni
Novanta (pur con qualche esperimento Canon già a fine anni Ottanta 9).
La predominanza dell'uno sull'altro, tuttavia, non è assolutamente provata, anzi.
6 Particolare tipo di transistor MOS che si “accende” solo se la tensione presente al gate è maggiore della
sua tensione di soglia (MOSFET a canale n di elettroni).
7 Particolare tipo di transistor MOS che si "accende" solo se la tensione presente al gate è minore della sua
tensione di soglia (MOSFET a canale p di elettroni).
8 Brevetto numero 3.356.858, “Low Stand-by Power Complementary Field Effect Circuitry”, datato 5
dicembre 1967, richiesta effettuata il 18 giugno 1963. Registrato presso United States Patent and
Trademark Office.
9 Cfr. Gabriele Coassin, Video Digitale: la ripresa , Milano, Apogeo, 2007, pag. 203.
8
Entrambi i tipi di sensori convertono la luce in una carica elettrica, trasformata poi in
segnali elettronici; la caratteristica per cui differiscono è il trasferimento e la conversione
delle cariche in immagini. A parità di risoluzione in un CCD tutti i pixel sono dedicati a
catturare la luce e elevata è l'uniformità dell'output - fattore chiave per la qualità delle
immagini -, mentre in un sensore CMOS ogni pixel ha il suo convertitore che determina
un'uniformità inferiore e una complessità dei circuiti maggiore 10, pur risparmiando sui
circuiti per il funzionamento di base (che invece sono compresi nel CCD) e sul consumo
generale del sensore.
Proprio questo ridotto consumo è uno dei motivi del rinnovato interesse verso il
CMOS negli anni Novanta: la tecnologia è finalmente adatta per sviluppare le potenzialità
dell'invenzione di Wanlass e l'idea di un nuovo sviluppo si basa anche sul teorico basso
costo della costruzione del dispositivo, perchè simile al sistema di fabbricazione dei
normali transistor. La pratica però dimostra una certa distanza dalla teoria: il costo di
fabbricazione dei CCD è minore (sia in progettazione e di fabbricazione) in quanto è un
processo ormai maturato e ottimizzato rispetto alla lavorazione necessaria per la
creazione di uno specifico CMOS, sensore già di per se più complesso e soggetto a costi
di progettazione maggiori. Dal canto loro i sensori CMOS riescono a fornire una maggiore
integrazione, dissipazione di potenza inferiore e la possibilità di un sistema dalle
dimensioni ridotte, richiedendo però un compromesso tra qualità dell'immagine e costo del
dispositivo.
Oggi non vi è una chiara demarcazione tra i tipi di applicazione di ciascuno dei
sensori. In linea generale i progettisti CMOS si sono dedicati a raggiungere un'alta qualità
dell'immagine, mentre i colleghi dediti al CCD hanno diminuito le loro esigenze di potenza
e le dimensioni del pixel. Il risultato? CCD a basso costo e bassa risoluzione nei cellulari e
sensori CMOS nelle fotocamere professionali ad alte prestazioni, in piena contraddizione
con gli stereotipi del caso.
1.1.2 Varietà di CCD e varietà di CMOS
Attualmente i CCD si attestano su quattro varietà:
– CCD IT: Interline Transfer. In questa tipologia ogni colonna di pixel è separata
dalla successiva (interline) in quanto tra le due scorrono i collegamenti per i registri
dove vengono trasferite (transfer), riga per riga, le cariche elettriche degli elementi
fotosensibili; l'immagine viene così restituita istantaneamente. Questa caratteristica
10 Nel circuito CMOS sono compresi: un convertitore per ogni pixel, filtri riduzione rumore e circuiti di
digitalizzazione.
9
rende il CCD indipendente dalla presenza di otturatori meccanici, e adatto al flusso
continuo dell'immagine video (vista la possibilità di rimanere esposti alla luce senza
problemi). Questo sistema non è però esente da difetti: la ridotta superficie sensibile
provoca una maggiore sensibilità all'effetto Aliasing (ovvero l'evidente scalettatura
delle linee diagonali o curve) e proprio per tali sensori sono state inizialmente
inventate le microlenti.
– CCD FT: Frame Transfer. I CCD FT hanno un'area sensibile esposta alla luce
collegata ad un'altra superficie della stessa dimensione, ma tenuta al buio, sulla quale
vengono trasferite le cariche elettriche tra una scansione e l'altra, nel momento in cui
l'otturatore elettronico è nella fase di ritorno quadro. In realtà può lavorare senza
otturatore meccanico, in quanto area sensibile può rimanere esposta mentre
l'immagine viene trasferita da memoria schermata al DSP ( Digital Signal Processor)
della camera o dell'hard disk. Perchè l'otturatore allora? Il CCD FT consente
disposizione più fitta pixel, raggiungendo una miglior efficienza ottica; riuscendo a far
stare 3 Megapixel (1440x1080) in appena 1/3”. Di contro viene accentuato il problema
dello Vertical Smear (ovvero dilatazione con relativo alone del punto luminoso in
corrispondenza del quale si forma una linea bianca lungo l'altezza fotogramma) che
viene risolto per l'appunto con la presenza dell'otturatore che interrompe il flusso
luminoso. Questo sistema inizialmente è preferito in astronomia, visto la minor
sofferenza dell'effetto aliasing e la totale copertura della superficie da parte dei pixel,
con conseguente rappresentazione anche di piccoli punti luce altrimenti persi.
Successivamente trova applicazione anche nelle telecamere broadcast, mentre
risoluta un sensore un po' ingombrante per le telecamere compatte.
– CCD FIT: Frame Interline Transfer. Come si evince dal nome, unisce i vantaggi
dei due sistemi precedenti, eliminando il Vertical Smear, l'otturatore meccanico e
l'Aliasing. Ma è anche un sistema meno sensibile rispetto agli altri due. Il CCD FIT è
formato da cellette di memoria poste in un'area oscurata direttamente a fianco dei
pixel sensibili, con conseguente realizzazione di pixel più piccoli e quindi meno
ricettivi. Essendo le aree di memorizzazione delle singole informazioni a fianco di ogni
pixel, il trasferimento è istantaneo e i punti luce troppo forti non hanno il tempo per
contaminare il trasferimento di carica dei pixel adiacenti.
– Super CCD: è il formato proprietario CCD della Fujifilm creato dal 1999
appositamente per le proprie macchine fotografiche. La quarta generazione, datata
2003, propone un'importante variazione sul tema: i pixel sono ottagonali e disposti su
file inclinate di 45°, capaci di sfruttare al meglio lo spazio vuoto tra pixel e pixel e di
10
catturare un maggior quantitativo di luce. Nella variante Super CCD SR ( Super
dynamic Range)11 subentra anche un'ulteriore particolarità: in ogni pixel sono collocati
due photodetector, cioè elementi unitari fotosensibili specializzati, dalle dimensioni
reciproche molto diverse. Il fotodiodo dalle dimensioni maggiori raccoglie più luce e
fornisce migliori informazioni in condizioni di scarsa illuminazione, mentre il più piccolo
si satura con meno facilità e quindi risulta maggiormente idoneo alla ripresa di zone
fortemente illuminate. Elaborando opportunamente i dati raccolti dai due fotodiodi è
possibile ottenere una buona riproduzione dalle alte alle basse luci, con un aumento
dell'intervallo dinamico della luminosità rispetto ai comuni sensori. Data però l'inusuale
inclinazione dei pixel, diventa necessaria una conversione dell'immagine che riporti il
normale orientamento verticale/orizzontale in modo da avere l'immagine in un formato
standard. Nei sensori Super CCD di quarta generazione quest'operazione viene
compiuta interpolando un pixel fra ogni paio di fotositi, generando un'immagine di 12
Megapixel a fronte di un sensore da 6; nei sensori di quinta generazione (2005),
invece, la conversione viene effettuata in altro modo (non diffuso da Fujifilm).
Attualmente siamo all'ottava generazione.
I sensori CMOS, invece, sono stati ultimamente sviluppati secondo due varietà:
– CMOS PPS: Passive Pixel Sensor. Prima generazione dei CMOS utilizza la
tecnologia dei pixel passivi introdotta introdotta nel 1967/8 da Dyck e Weckler,
ingegneri della Fairchild. Il maggior difetto riscontrabile riguarda le bassi luci, in cui il
rumore di fondo è dato dalle piccole dimensioni e dalla distanza tra loro dei fotositi, la
parte sensibile del pixel. Questo difetto comporta una qualità non perfetta soprattutto
nelle lunghe esposizioni o nelle sottoesposizioni.
– CMOS APS: Active Pixel Sensor. Sensore di nuova generazione che utilizza
una tecnologia nata in seno al Jet Propulsion Laboratory (NASA) nel 1992, consente
l'accesso alle informazioni di ogni singolo pixel, permettendo la correzione per via
informatica. Uno dei suoi svantaggi è la minor uniformità tra un pixel e l'altro rispetto
ad un equivalente sensore CCD.
1.1.3 Foveon
Legato per il momento solo al mondo della fotografia digitale, il sensore Foveon X3
è un meccanismo ulteriormente miniaturizzato grazie all'eliminazione del prisma che
permette la separazione del tre colori sui CCD e l'utilizzo di tre sensori semitrasparenti
11 L'altra è il Super CCD HD, High Definition.
11
uno sull'altro. Il funzionamento riprende quello degli strati sensibili della pellicola e in
pratica è un sensore di derivazione CMOS che si comporta come un sensore a 3 CCD
ingombrando il 90% in meno. Nel Foveon ogni fotosito (equivalente del pixel) è composto
da tre strati su ognuno dei quali è collocato un fotodiodo, cioè il fotosito ha le tre le
componenti RGB sovrapposte e catturate direttamente da tre elementi fotosensibili senza
necessità di interpolazione. Il problema di questo nuovo sensore riguarda la risoluzione:
per ottenere un'immagine finale da 3,4 Megapixel occorre avere un sensore con 10,2
milioni di elementi fotosensibili collocati in 3,4 milioni di fotositi che però danno immagini
finali con una migliore resa cromatica ed una minore presenza di interferenze.
Attualmente questa controversa tecnologia è utilizzata dalla SIGMA in un suo
modello di macchina fotografica Reflex, mentre è totalmente sconosciuta nel mondo del
video digitale, vista anche la lentezza trasferimento immagine da sensore a buffer che ha
un limite di 5 fps.
1.1.4 Color Filter Array Bayer
I sensori d'immagine, sia essi CCD che CMOS, sono di per sé monocromatici, cioè
riescono a rendere il bianco, il nero e la scala di grigi. Il color filter array ha il compito di
separare e distribuire le tre componenti cromatiche sui diversi pixel del sensore, facendo
registrare ad ognuno il segnale relativo ad una sola componente RGB presenti
nell'immagine. Al processo di demosaicizzazione poi il compito di dare forma
all'immagine: esso infatti è capace di decodificare le informazioni acquisite dai CFA
traducendole in quello che è stato colto dall'apparecchio video, fotografico o scanner.
Il color filter array tra i più conosciuti è il Bayer, nato una decina d'anni dopo i
sensori d'immagine (nel 1976) dalla mente di Bryce Bayer, uomo in forza alla Eastman
Kodak. L'invenzione di Bayer consiste in filtro con pattern GRGB (Green, Red, Green,
Blue) che in sensore distribuisce nel 50% dei pixel (o photosite) la componente verde (G),
nel 25% la componente blu (B) e nel rimanente 25% la componente rossa (R). I dati
grezzi Bayer sono essenzialmente un'immagine in bianco e nero in cui ogni pixel
corrisponde ad un solo valore di colore specifico. Al fine di ottenere l'immagine corretta, i
colori devono essere ricostruiti sulla base dei dati Bayer. La ricostruzione avviene in
automatico e, come per esempio avviene nella Arri D 21, durante il processo di
campionamento vengono analizzati i pixel dell'intero sensore 2880x1620 e scalati di 1,5
per ottenere 1920x1080 senza nessun artefatto nell'immagine finale.
Sulla linea del lavoro di Bayer nascono poi altri tipi di CFA dalle diverse matrici
12
RGBW (Red, Green, Blue, White) o RGBE (Red, Green, Blue, Esmeraldo, utilizzato in
alcune fotocamere Sony), o CYYM (Cyan, due Yellow e Magenta, utilizzato in alcune
fotocamere Kodak) oltre ad innumerevoli altre variazioni sul tema.
1.1 I color filter array più comuni
Immagine Nome Descrizione Pattern
(pixel)
Filtro Bayer
Comune filtro colore RGB. La
proporzione è uno di rosso,
uno di verde, uno di blue.
2x2
Filtro RGBE
Simile al Bayer con uno dei
filtri verdi modificato con il
color Smeraldo. Usato in
alcune fotocamere Sony.
2x2
Filtro CYYM
Uno ciano, due gialli e uno
magenta. Filtro usato in
alcune fotocamere Kodak.
2x2
Filtro CYGM Uno ciano, uno giallo, uno
verde e uno magenta. 2x2
Filtro RGBW Bayer
Tradizionale filtro RGB con
l'aggiunta del bianco, simile al
Bayer e al RGBE. Uno rosso,
uno verde, uno blue e uno
bianco.
2x2
13
Immagine Nome Descrizione Pattern
(pixel)
Filtro RGBW - 1
Tre esempi di filtri RGBW
della Kodak. La particolarità è
il 50% di bianco.
4x4
Filtro RGBW - 2
Filtro RGBW - 3 2x4
1.2 I primi passi
1.2.1 La fotografia
L'immagine e l'elettronica cominciano ad incontrarsi all'incirca negli anni Sessanta:
le prime conversioni di immagini in movimento in impulsi elettrici su nastro risalgono
proprio al 1960, con le sperimentazioni dei primi VTR (Video Tape Recorder), e poi
soprattutto grazie all'apporto della NASA, che fa largo utilizzo di queste avanguardistiche
tecnologie per la mappatura della superficie lunare. Sono gli anni dei primi esperimenti in
laboratorio, senza alcun impiego al di fuori della sperimentazione né del mondo
industriale-scientifico.
La ricerca continua e negli anni Settanta è innanzitutto il settore privato a
impegnarsi per superare i limiti della pellicola (sia essa ad uso foto che cinematografico) a
favore del digitale. La Texas Instruments si affida ad un ingegnere elettronico già coinvolto
nella realizzazione della prima bomba atomica, ma anche dei transistor e dei circuiti
integrati per portare avanti le proprie ricerche, arrivando nel 1972 a registrare il primo
brevetto. L'ingegner William Adcock12 inventa un sistema senza pellicola e con
12 L'ingegnere Adcock è stato anche chimico e professore universitario. La sua lunga carriera che si svolse
tra la prima bomba atomica e la prima macchina fotografica, lo vede anche vice-presidente della Texas
14
componenti analogici:
“un sistema completamente elettronico per la registrazione e,
successivamente, la visualizzazione di immagini, include un trasduttore ottico-
elettronico per la generazione di segnali elettronici rispondenti ad un'immagine ottica.
I segnali vengono memorizzati e successivamente mostrati in uno schermo. Sono
previste attrezzature per l'utilizzo del segnale ad una velocità di scansione
sincronizzata con la velocità di scansione del display in modo da ottenere
un'immagine stazionaria. 13"
Il primo brevetto viene rimaneggiato più volte dallo stesso Adcock fino alla sua
forma definitiva nel 1977. Già in questo prototipo sono presenti le varianti per macchina
fotografica e cinepresa, basandosi comunque sullo stesso principio: dal ricettore
dell'immagine si registra l'immagine stessa che viene mostrata da un normale sistema
video (standard televisivo) grazie all'utilizzo di un'interfaccia.
Negli stessi anni la Kodak porta avanti interessanti studi sulla fotografia e il
digitale, che danno buon esito nel 1975 quando l'ingegnere elettronico Steven Sasson
crea il prototipo della prima macchina fotografica digitale 14: la fotografia di una sua
collaboratrice è la prima immagine memorizzata dalla macchina, un volto in bianco e nero
con risoluzione di 0,01 Megapixel generato in 23 secondi (più altri 23 secondi per
codificare e vedere l'immagine su schermo). La creazione di questo straordinario oggetto,
che vede la partecipazione del superiore in grado nonchè comproprietario del brevetto
Gareth A. Lloyd, comporta un lungo lavoro e il ricorso al materiale più disparato: da un
converter analogico-digitale della Motorola Inc, alle ottiche cinematografiche Kodak, ai
“piccoli” CCD 100x100 pixel firmati Fairchild usciti solo l'anno precedente. Sotto la guida
di un oscilloscopio l'ingegner Sasson crea la prima fotocamera digitale al mondo,
brevettata poi nel 1978, punto di partenza di un nuovo modo di fare fotografia ma anche di
una innovativa integrazione con il video.
Fatto il primo grande passo la fotografia digitale rimane in secondo piano nel
mercato consumer e professionale, ma ha grande utilizzo nella fotografia astronomica fin
da subito. Già nel 1974, prima dell'invenzione dell'ing. Steven Sasson, il CCD 100x100
pixels Fairchild viene utilizzato con un telescopio ottenendo le prime fotografie
astronomiche digitali.
Instrument negli anni Ottanta.
13 traduzione di una parte del testo del brevetto n° 4163256 tratto dal database online de United States
Patent and Trademark Office. Il primo brevetto risale al 27 giungo 1972, per poi essere revisionato nel
1974, 1975, 1976 fino all'ultimo del 23 giugno 1977. Cfr. http://www.uspto.gov/index.html .
14 brevetto n° 4131919 del 31 luglio 1979 registrato presso United States Patent and Trademark Office.
15