Sensori CCD

by / giovedì, 15 novembre 2018 / Published in Alta Fotografia, Fotografia, Il blog

 

SENSORI di IMMAGINI

parte prima: i sensori CCD

La tecnologia che ha trasformato la fotografia analogica in quella digitale

 

Prima di entrare nell’argomento è bene fare una breve storia di come si sono evoluti i supporti per memorizzare le immagini. Nella prima metà del 1800 per memorizzare le prime immagini, dette dagherrotipi, venivano utilizzate delle lastre di rame su cui veniva depositato uno strato di argento sensibile alla luce. La lastra doveva essere utilizzata entro poche ore dalla preparazione per passare successivamente allo sviluppo mediante vapori di mercurio e infine veniva fissata utilizzando una soluzione al sodio.

Negli ultimi anni del 1800 George Gladius (fondatore della Eastman), imprenditore statunitense, mise in produzione le pellicole trasparenti di nitrocellulosa della larghezza di 35 millimetri (Figura 1). La pellicola fotografica è formata da un supporto di materiale plastico sopra al quale vengono depositati degli strati di emulsione di alogenuro d’argento. Il numero degli strati varia se la pellicola è in bianco nero o a colori. Quando la luce, attraverso l’obbiettivo, la raggiunge si forma una immagine latente che successivamente attraverso i processi chimici di sviluppo e fissaggio viene resa stabile ed insensibile ad ulteriori esposizioni alla luce.

Figura1

Negli anni ottanta la Sony presentò la MAVICA (MAgnetic VIdeo CAmera) una macchina fotografica che utilizzava un floppy disk come supporto di memorizzazione delle immagini al posto della pellicola (Figura 2). Nel 1988 nacque la FUJI DS-1P la prima fotocamera a fuoco fisso con un obbiettivo da 16 mm che utilizzava un sensore CCD per acquisire l’immagine e per memorizzare le foto utilizzava una memory card SRAM (Static Random Access Memory).

Figura 2

Possiamo quindi prendere questo decennio come la nascita della fotografia digitale che ha utilizzato come supporto per la memorizzazione delle immagini una memoria digitale. E’ stato quindi necessario introdurre negli apparati un dispositivo che permettesse di trasformare l’immagine da analogica a digitale: il sensore di immagine (Figura 3).

Figura 3

Il sensore di immagine o sensore ottico di una fotocamera digitale è il dispositivo elettronico che converte l’immagine catturata attraverso un obbiettivo in un segnale elettrico. Il principio base di funzionamento è la focalizzazione dell’immagine sul sensore piano che cattura una informazione per ciascun pixel (singolo punto del sensore) e successivamente l’immagine viene opportunamente immagazzinata.

Le principali caratteristiche del sensore sono: la tecnologia utilizzata, la registrazione delle immagini in bianco e nero o a colori, la risoluzione, la sensibilità alla luce.

I principali tipi di sensori di immagini sono i CCD e i CMOS. Il sensore CCD (Charge-Coupled Device, traducibile in italiano DAC, dispositivo ad accoppiamento di carica) è un circuito integrato formato da una griglia di elementi foto sensibili “pixel” che permettono di accumulare una carica elettrica (Charge) proporzionale all’informazione luminosa da cui vengono colpiti. I singoli pixel vengono accoppiati (Coupled) in modo che con una opportuna sollecitazione si ottiene il trasferimento della propria carica alla cella adiacente.

Inviando al dispositivo (Device) una opportuna sequenza di controllo si ottiene in uscita un segnale elettrico che permette di ricostruire le matrice dei pixel che concorrono a formare l’immagine proiettata sul sensore. Si può utilizzare direttamente il segnale elettrico per ricostruire l’immagine su un monitor o si può convertire la stessa in un formato digitale utile alla conversione in un file. Il procedimento di acquisizione dell’informazione per i CCD si può riassumere nella figura 4.

Dopo che la luce ha raggiungo ogni singolo pixel ed è stata memorizzata, applicando una opportuna sequenza della tensione di controllo tutti valori vengono spostati di una posizione a destra. Il primo valore viene memorizzato e l’operazione si ripete fino alla completa lettura dei valori. In pratica il sensore CCD è un registro a scorrimento (shift register).

Figura 4

Analizziamo in dettaglio il procedimento con cui l’immagine viene digitalizzata per essere poi memorizzata. I sensori, sia CCD che CMOS, sono formati da un numero molto elevato di pixel. Ognuno di essi posizionato in modo opportuno riceve dei fotoni proporzionali alla luce incidente. Questo permette ad ogni singolo pixel di accumulare una carica elettrica proporzionale alla luce. A seconda del tipo di sensore queste cariche vengono lette da appositi circuiti generando una tensione elettrica proporzionale alla luce sul singolo pixel. Unendo le informazione si otterrà l’immagine che andrà memorizzata in un file. I pixel però non distinguono i colori ed il valore della tensione in uscita rappresenta solo l’informazione sulla luminosità dell’immagine, cioè otterremmo una immagine in bianco e nero.

Per poter riprendere e riprodurre un’immagine a colori bisogna procedere in modo più elaborato. Abbiamo, a seconda della tecnologia, essenzialmente 2 modi: il primo, quello più seguito, antepone davanti a gruppi di 4 pixel, che da adesso in poi chiameremo fotosito, per 2 pixel dei filtri verdi, per un pixel il filtro rosso e per l’ultimo il filtro blu. Il maggior numero di filtri verdi è legato alla maggiore sensibilità dell’occhio umano per questo colore e alla minore sensibilità ai colori rosso e blu. Ricordiamo che nello spettro luminoso il verde si trova al centro del medesimo mentre il rosso ed il blu sono posizionati agli estremi. L’immagine acquisita quindi avrà un 50 % di pixel contenenti l’informazione del verde, un 25 % quella del rosso ed un 25 % quella del blu. Questo tipo di sensore è stato ampiamente studiato e viene definito a matrice Bayer (figura 5).

figura 5

Il secondo procedimento è quello di usare per ogni fotosito tre pixel invece di uno dove ognuno è sensibile ad un solo colore fondamentale. In questo modo per ogni punto si hanno tre valori di tensione, una per ogni colore in modo da ottenere una immagine a colori. Questo tipo di sensore, chiamato “Foveon” è usato solo da Sigma ed è implementato con la tecnologia CMOS.

Per poter registrare e quindi successivamente visualizzare l’immagine i valori della tensione prodotta da ciascun pixel devono essere convertiti da “analogico” a “digitale”. Questa operazione viene fatta da un convertitore A/D (Analogico/Digitale). Caratteristica importante dei convertitori è il numero dei bit utilizzati, con 12 bit si potranno distinguere 4096 livelli di luminosità per ogni colore. A questo punto la foto potrebbe essere direttamente registrata in formato RAW se questo formato è supportato dalla fotocamera usata e se il fotografo opta per questa scelta il processo è giunto ad un primo risultato finale. L’elaborazione successiva dovrà avvenire sul computer per poter ricavare dall’immagine latente cioè da una matrice di punti dei colori fondamentali la “vera” immagine.

Il sensore Foveon è già in formato direttamente utilizzabile per la memoria in quanto l’informazione completa sui tre colori viene direttamente da ogni singolo fotosito. Non ci sono problemi pressanti di filtraggio dei dati per diminuire antialias (quando un segnale a bassa risoluzione viene visualizzato in alta risoluzione abbiamo un effetto di “scalettatura” delle linee oblique).

Nel caso dei sensori Bayer invece bisogna operare come descritto in figura 6. Partendo dall’informazione (Fig 6 A) presa come precedentemente detto per ogni singolo colore (Fig 6 B) per prima cosa bisogna ricostruire l’informazione mancante per ogni colore primario. Questa viene eseguita interpolando i pixel con quelli vicini (Fig 6 C). Le varie informazioni sono poi assemblate insieme nell’immagine finale (Fig 6 D). Questo processo presenta dei notevoli inconvenienti in caso di forte variazione di luminosità tra pixel vicini portando alla creazione di colori falsi; il fenomeno è particolarmente evidente con delle frange colorate che vengono chiamate effetto moirè. Per limitare il fenomeno viene limitata la risoluzione mediante dei filtri antialias (un filtro passa-basso). La presenza del filtro e il maggior numero dei pixel che riportano la luminosità del verde (50% del totale del numero dei fotositi) abbassano la risoluzione effettiva dei sensori Bayer che è circa il 50% del numero dei fotositi presenti nel sensore. Utilizzando come algoritmo di interpolazione la “demosaicizzazione” si riesce a migliorare la risoluzione fino al 60% dei pixel effettivi.

figura 6

L’interpolazione è una tecnica matematica che può essere usata per generare ulteriori pixel oltre a quelli catturati dal sensore, in questo modo non si aggiunge informazione all’immagine ma si riduce il rumore quando l’immagine è fortemente ingrandita. Nelle fotocamere che adottano un sensore a matrice di Bayer si usa l’interpolazione per generare in ogni fotosito le componenti cromatiche mancanti, in questo caso si tratta propriamente di interpolazione cromatica.

La fedeltà cromatica dell’intera immagine si ottiene registrando per ogni pixel un file grafico a colori (fa eccezione il file di tipo RAW). Questo deve contenere le informazioni cromatiche di tutte e tre le componenti RGB della luce incidente su ogni pixel. La riproduzione delle immagini luminose avviene per mescolanza additiva delle tre componenti primarie della luce. Poiché ogni pixel ne cattura solo una di queste (R, G o B) per fornire tutti i dati le altre due informazioni cromatiche vengono calcolate dal processore d’immagine attraverso un procedimento matematico (algoritmo di demosaicizzazione in inglese demosaicing). Solo così il pixel, inteso come raggruppamento dei dati cromatici della più piccola porzione che forma l’immagine, può concorrere ad una rappresentazione fedele dei colori.

In conclusione una fotocamera che utilizza un sensore di tipo Bayer da 12 megapixel, ad esempio, avrà una risoluzione effettiva di circa 6-7 megapixel mentre una fotocamera con sensore Foveon da 8 megapixel avrà una risoluzione effettiva di 8 megapixel.

L’immagine composta con i dati così digitalizzati, ed eventualmente interpolati, relativi a ciascun pixel è a questo punto del processo un’immagine che può essere registrata in vari formati: TIFF, JPG o altri.

Caratteristica fondamentale del sensore sono le sue dimensioni. Le misure del sensore non sono proporzionali alla sua risoluzione ma ovviamente ne limitano la risoluzione massima. Riportiamo nella tabella 1 le dimensioni che i sensori possono avere:

TABELLA 1

formato

tipo

esempio

Base (mm)

Altezza (mm)

Fattore equivalenza 35 mm

Ingrandimenti necessari per stampare in formato 20×30 cm

6×9

Film

120, Kodok Brownie

81

56

0,44

3,7

6×6

Film

120, Rolleiflex

56

56

0,64

5,4

135 (35 mm)

Film

Reflex a pellicola

36

24

1

8,3

Canon pieno formato Digitale Canon 1Ds, 5D, 6D 35,8 23,8 1,01 8,4
Leica M8 Digitale Leica M8 27 18 1,33 11,1

APS

Film

APS cameras (“C” format)

25,1

16,7

1,43

12

Nikon DX Digitale Nikon D70, D50, D80, D40 23,2 15,7 1,52 12,7
Canon D Digitale Canon 300D, 350D, 400D 22,2 14,8 1,62 13,5
Quattro Terzi Digitale Olimpus, Leica 18 13,5 2 16,7

110

Film

Pocket Instamatic

16,8

12,5

2,14

17,9

2/3. Digitale Minolta Dimage 7 – A200 8,8 6,6 4,09 34,1
1/1.8 Digitale Compatte digitali fascia alta 7,18 5,32 5,02 41,8
1/2.5 Digitale Compatte digitali fascia media 5,76 4,29 6,25 52,1

Super 8

Film

Cineprese

5,35

4

6,73

56,1

1/3.2 Digitale Compatte digitali economiche 4,4 3,42 7,89 66,1

8 mm

Film

Cineprese

4,5

3,33

8

66,7

I sensori con fattori di equivalenza alti avranno costi più bassi ma a parità di formato si avranno dei pixel di dimensione più grande e quindi un risultato finale di qualità più bassa. Nell’acquisto della fotocamera digitale bisognerebbe stare più attenti alla dimensione del sensore invece che ai megapixel di risoluzione dichiarati. Per una analisi comparativa vediamo la figura 7 dove sono stati riportati in scala i vari formati. Il valore 2/3” si intende che le dimensioni della diagonale del sensore sono due terzi di pollice cioè circa 16,93 mm (1 pollice = 2,54 centimetri). Partiamo come formato base dal 35 mm e vediamo che i sensori di dimensione più grandi sono quelli utilizzati dalle fotocamere di fascia alta del mercato. Successivamente troviamo le reflex di fascia bassa ed infine le compatte (economiche). Per ultimo a titolo esemplificativo confrontiamo il sensore di un telefonino di ultima generazione e vediamo che le sue dimensioni sono di 1/3.0”, cioè più piccole di una compatta.

Figura 7

Tra le altre proposte del mercato troviamo i sensori super CCD. Il Super CCD è un sensore proprietario sviluppato a partire dal 1999 dalla Fujifilm per le proprie macchine fotografiche digitali. Questo è stato presentato in due varianti: HR (High Resolution, alta risoluzione) e SR (Super dynamic Range, ampio intervallo dinamico). Questo sensore adotta pixel ottagonali, anziché quadrati o rettangolari, disposti su file inclinate di 45°. Così, a parità di numero di pixel, si ottiene una risoluzione verticale ed orizzontale più alta a scapito però di quella diagonale. Nel secondo caso vengono utilizzati due fotodiodi di dimensioni reciproche diverse per poter catturare immagini in condizioni di illuminazione molto diverse. Recentemente dalla FUJIFILM è stato presentato un nuovo sensore APS-C X-Trans CMOS da 16MP; questo sensore adotta una matrice 6*6 che elimina la necessità del filtro ottico passa-basso utilizzando la aperiodicità nella disposizione dei pixel. In questo modo, senza perdita di risoluzione, vengono ridotti i falsi colori e l’effetto moirè.

Per confrontare le prestazioni delle tradizionali pellicole con i sensori possiamo facilmente dire che le pellicole hanno una risposta alla luce decisamente più uniforme e non presentano fenomeni di approssimazione come avviene per i sensori. Di contro il passaggio dall’immagine latente che viene catturata dalla pellicola alla fotografia finita ha bisogno di tempi di elaborazione (sviluppo e stampa) molto più lunghi ed inoltre queste operazioni vanno eseguite in un laboratorio specializzato. Nella prossima parte verranno analizzati i sensori CMOS e sarà fatto il raffronto tra le due tecnologie.

 

FRANCESCO

questo articolo è stato pubblicato sulla rivista FOTOGRAFARE n° 2 (Febbraio) del 2014 nella rubrica di ALTA FOTOGRAFIA.

P.S. Visto il tempo trascorso dalla pubblicazione va precisato che l’impianto tecnico dell’articolo è sempre valido ma risulteranno poco attendibili le eventuali ricerche di mercato o le scansioni temporali dei prodotti fotografici citati nel medesimo.

 

(25)

Lascia un commento

TOP