Sensori in Bianco Nero

by / giovedì, 31 ottobre 2019 / Published in Alta Fotografia, Francesco, Il blog

 

NUOVI SENSORI IN BIANCO E NERO

analizziamo le differenze con i tradizionali a colori

 

 

Recentemente è stato presentato un modello di fotocamera digitale che permette di acquisire solo immagini in bianco è nero e non più a colori, oltre tutto con un costo decisamente non alla portata di tutte le tasche. Considerando che ci sono voluti oltre trenta anni per passare dalla fotografia in bianco e nero alla fotografia a colori, parliamo ovviamente di una fotografia commerciale (era la fine del 1800 quando è stata prodotta la fotocamera Kodak Brownie (costo un dollaro la fotocamera e 15 cents la pellicola) che utilizzava la pellicola analogica in bianco e nero e solo nel 1933 è stata prodotta la pellicola a colori Kodakcrome), a primo impatto verrebbe da pensare che la fotografia digitale invece di migliorare stia regredendo. E’ vera questa affermazione o le case costruttrici ci stanno fornendo un ulteriore passo in avanti nella velocissima corsa al miglioramento della fotografia digitale? Ovviamente la risposta giusta è la seconda poiché il prodotto presentato è veramente all’avanguardia per qualche aspetto della fotografia che andremo ad analizzare.

fotocamera Kodak Brownie commercializzata alla fine del 1800 e la prima pellicola a colori del 1933

Abbiamo già visto come funzionano i sensori di immagini sia del tipo CCD che CMOS. Quando i fotoni luminosi raggiungono la superficie del sensore, per ogni singolo pixel posto sulla sua superficie, vengono trasformati, in modi diversi a seconda del tipo del sensore, in una informazione di tipo elettrico. Questa deve poi essere convertita in un segnale digitale che sarà memorizzato sull’opportuno supporto. La risoluzione dell’immagine è un parametro che dipende direttamente da quanti pixel sono presenti sulla superficie del sensore.

Per comprenderlo meglio facciamo degli esempi pratici:

Se consideriamo una fotografia alla massima risoluzione di una Hasselblad H5D-50c avremo 8272*6200 cioè 51286400 pixel. Considerando che le dimensioni del sensore sono di 32.9*43.8 mm avremo una area di 1441,02 mm2. In 1 mm2 sono presenti 35590,34 pixel e l’area del singolo pixel è di 28,097 nmetri2.

Se consideriamo una fotografia alla massima risoluzione di una Canon EOS6D avremo 5742*3648 cioè 20946816 pixel. Considerando che le dimensioni del sensore sono di 24*36 mm avremo una area di 864 mm2. In 1 mm2 sono presenti 24244 pixel e l’area del singolo pixel è di 41,247 nmetri2.

Se consideriamo una fotografia alla massima risoluzione di una Canon EOS450D avremo 4272*2848 cioè 12166656 pixel. Considerando che le dimensioni del sensore APS-C sono di 14,8*22,2 mm avremo una area di 328,56 mm2. In 1 mm2 sono presenti 37030,2 pixel e l’area del singolo pixel è di 27,004 nmetri2.

Se consideriamo una fotografia alla massima risoluzione di un Nokia Lumia 1020 (smartphone) avremo 7712*5360 cioè 41336320 pixel. Considerando che le dimensioni del sensore da 2/3 di pollice sono di 6,6*8,6 mm avremo una area di 56,76 mm2. In 1 mm2 sono presenti 728264,97 pixel e l’area del singolo pixel è di 1,373 nmetri2.

Per tutti gli esempi sono stati presi in considerazione solo la risoluzione e le dimensioni reali del sensore. I singoli pixel sono stati considerati uguali per tutti i tipi, ovviamente questa è una approssimazione. Più l’area del singolo pixel è grande è maggiore sarà la quantità di informazione che sarà catturata dal sensore, cioè avremo una migliore nitidezza nei dettagli della fotografia.

Per spiegare meglio l’articolo cerchiamo di chiarire il concetto di nitidezza (dal latino nitor, nitidus) che in fotografia indica il grado di leggibilità dei dettagli. Esistono dei processi di sfocatura, mosso ed altro ancora che a volte vengono usati per avere un immagine creata a fini artistici, ad esempio le immagini flou di David Hamilton, ma in generale in una fotografia il risultato migliore si ottiene con la massima nitidezza. In questo modo potremo ingrandire di più l’immagine, la definizione risulterà maggiore e avremo una visione di un maggior numero di dettagli.

stampato il bersaglio su un foglio A4 è stato fotografato in alto con una Canon EOD6D (21 Megapixel) ed in basso con una Canon EOS450D (12 Megapixel). Per entrambe gli scatti è stato utilizzato lo stesso obiettivo 24-105 (ricordiamo che avendo un sensore APS-C la focale utilizzata con la 450D va moltiplica circa per 1,4). Il riquadro in alto a sinistra è un particolare ingrandito di 5 volte per entrambi gli scatti. il riquadro in basso a destra è un particolare ingrandito di 10 volte nel primo caso ed 8 volte nel secondo caso. Per la 6D si intravedono ancora le linee, per la 450D le linee sono diventate delle macchie colorate

Per aumentarla possiamo:

  • usare tempi brevi per diminuire il mosso (un metodo empirico propone di non usare tempi inferiori al reciproco della focale)

  • utilizzare il treppiedi per diminuire il mosso per i tempi lunghi

  • utilizzare per le scene in studio un’illuminazione adeguata (multi flash)

  • scegliere ottiche di buona qualità

  • utilizzare l’opportuno sensore d’immagine per la fotografia digitale

  • utilizzare l’opportuno software per la gestione delle scene acquisite

per le ultime due opzioni possiamo agire solo scegliendo la fotocamera adeguata ai nostri scopi, il fotografo non può avere il loro diretto controllo ma solo scegliere tra i prodotti che il mercato offre.

Per aumentare la nitidezza del segnale i costruttori montano davanti ai sensori dei filtri (filtri passa basso – Low Pass Filter) per eliminare le componenti all’infrarosso che potrebbero giungere su di esso. Inoltre questo filtro serve per diminuire l’effetto Moiré (una evidente vignettatura dei bordi nelle zone della fotografia dove è presente un forte contrasto, in questo modo viene dato un aspetto lineare ai contorni di una figura).

Rispetto alla fotografia analogica quella digitale oltre alla nitidezza intrinseca nell’immagine presenta quella dovuta alla stampa o alla proiezione su un monitor che possono ulteriormente variare il risultato finale.

Per analizzare in modo corretto un immagine visualizzata sullo schermo bisogna considerare la risoluzione al 100% della sua grandezza. Se la visualizzassimo ad una percentuale di ingrandimento non intera (es. 33,3%) il software di gestione della memoria video aggiungerà una ulteriore approssimazione.

In definitiva dobbiamo considerare a seconda del nostro intero sistema diversi tipi di correzione per la nitidezza:

  • Nitidezza di acquisizione (capture sharpening): sull’immagine appena acquisita viene compensata la “morbidezza” che le immagini digitali presentano in fase di acquisizione (effetto del filtro anti-alias). Questo tipo di correzione si può applicare con procedure automatiche.

  • Nitidezza creativa (creative sharpening): è applicata solo su alcune zone dell’immagine per esaltarne i dettagli, ad esempio gli occhi in un ritratto. Si tratta di una nitidezza aggiunta a quella di acquisizione.

  • Nitidezza dell’output (output sharpening): è applicata per ottimizzare la resa finale dell’immagine per il supporto utilizzato.

Dopo l’acquisizione vengono estrapolate le informazione per ottenere l’immagine che sarà memorizzata in un file. Con i tipi di sensori analizzati i pixel non distinguono i colori ed il valore della tensione in uscita rappresenta solo l’informazione sulla luminosità dell’immagine, cioè ne otterremmo una in bianco e nero. Infine per registrarla i valori della tensione prodotta da ciascun pixel devono essere convertiti da analogico in digitale (convertitore Analogico/Digitale).

Per ottenerne una immagine a colori bisogna ragionare in modo completamente diverso.

Visto che il sensore proposto e di tipo CMOS, trascuriamo gli altri tipi di sensori (il tipo “Foveon” usato solo da Sigma) e concentriamo la nostra analisi su di questi. Come bisogna agire per trasformare un immagine in bianco e nero in una a colori?

Il sensore da solo è come una pellicola in bianco e nero e per ottenere le immagini a colori è necessario introdurre un sistema di acquisizione cromatica selettiva per i pixel. A tale scopo davanti ad ogni pixel del sensore si pone un filtro colorato con banda passante centrata intorno a uno dei tre colori primari (blu, verde o rosso). Il sensore durante la fabbricazione viene ricoperto da una scacchiera di filtri colorati che prende il nome di matrice di Bayer. A volte si usa anche l’acronimo CFA (Color Filter Array – matrice di filtri colorati).

Davanti a gruppi di 4 pixel, che chiameremo fotosito, su 2 pixel vengono posizionati dei filtri verdi, su un pixel il filtro rosso e su l’ultimo il filtro blu. L’immagine acquisita quindi avrà un 50% di pixel contenenti l’informazione del verde, un 25% quella del rosso ed un 25% quella del blu.

sezione di un sensore di immagini: 1 = fotoni luminosi che attraverso l’obiettivo raggiungono la superficie del sensore, 2 = microlente montata sul singolo pixel, 3 = filtro ottico rosso della matrice di Bayer (quello accanto è verde), 4 = silicio policristallino trasparente, 5 = isolante superficiale (biossido di silicio), 6, 7 e 8 vari strati di Silicio con diversi drogaggi che formano il singolo pixel. Lo schema è valido sia per sensori di tipo CMOS che di tipo CCD

Nel caso dei sensori Bayer si parte dall’informazione catturata per ogni singolo colore secondo lo schema appena detto. Bisogna però ricostruire l’informazione mancante per ogni colore primario. Questa viene approssimata interpolando i pixel con quelli vicini. Le varie informazioni dovute ai singoli canali cromatici sono poi assemblate insieme nell’immagine finale. Questo processo presenta dei notevoli inconvenienti in caso di forte variazione di luminosità tra pixel vicini portando alla creazione di colori falsi; il fenomeno è particolarmente evidente con delle frange colorate che vengono chiamate effetto Moiré. Per limitare il fenomeno viene limitata la risoluzione mediante dei filtri antialias (filtro passa-basso). La presenza del filtro e il maggior numero dei pixel che riportano la luminosità del verde (50% del totale del numero dei fotositi) abbassano la risoluzione effettiva dei sensori Bayer che è circa il 50% del numero dei fotositi presenti nel sensore. Utilizzando come algoritmo di interpolazione la “demosaicizzazione” si riesce a migliorare la risoluzione fino al 60% dei pixel effettivi.

matrice di Bayer: in alto sezione e pianta di una matrice di Bayer di dimensione 8*8, in basso A = acquisizione dei valori luminosi di tutto il sensore, B = separazione delle tre componenti cromatiche, C = interpolazione delle informazioni mancanti per ogni componente cromatica, D = assemblaggio dell’informazione finale

Alternative adottate per lo schema ideato da Bayer comprendono varianti sia dei colori che della disposizione degli elementi fotosensibili, alcuni costruttori utilizzano dei fotositi con disposizione e numero dei pixel diversi dalla costruzione standard.
I filtri colorati schierati davanti agli elementi fotosensibili del sensore devono presentare curve di sensibilità con forme che permettano la massima discriminazione dei colori, minimizzando allo stesso tempo il fenomeno del metamerismo.
Le curve ideali che consentirebbero la massima discriminazione tra i colori richiederebbero una perfetta linearità nello spettro visibile. In pratica non lo saranno e si andranno a sovrapporre in alcuni intervalli.

curva caratteristica: risposta ideale della matrice di Bayer. Risposta reale del sensore della Nikon D700. Confronto tra la risposta del sensore Nikon D700 con e senza filtro per gli infrarossi

L’interpolazione è una tecnica matematica usata per generare ulteriori pixel oltre a quelli catturati dal sensore, in questo modo non si aggiunge informazione all’immagine ma si riduce il rumore quando l’immagine è fortemente ingrandita. Nelle fotocamere che adottano un sensore a matrice di Bayer si usa l’interpolazione per generare in ogni fotosito le componenti cromatiche mancanti, in questo caso si tratta propriamente di interpolazione cromatica.

La fedeltà cromatica dell’intera immagine si ottiene registrando per ogni pixel un file con tutte e tre le componenti RGB della luce incidente su ogni pixel. Poiché ogni pixel ne cattura solo una di queste (R, G o B) per fornire tutti i dati le altre due informazioni cromatiche vengono calcolate dal processore d’immagine attraverso un procedimento matematico (algoritmo di demosaicizzazione in inglese demosaicing).

Possiamo concludere che se il sensore di immagini usa la matrice di Bayer avremo un sensibile peggioramento, anche se necessario per ottenere il colore, della nitidezza delle immagini.

La fotocamera innovativa che è stata commercializzata è la Leica M Monochrom Typ 246 che è la versione migliorata della precedente Leica M Monochrom. A mio parere la fotocamera presenta una linea decisamente retrò che le conferisce un fascino particolare. Questa fotocamera è stata equipaggiata con un sensore CMOS a pieno formato da 24 Mega pixel che non presenta la matrice di Bayer: può memorizzare immagini solo in bianco e nero ma in questo modo possiede una nitidezza che è decisamente superiore a quella di una fotocamera con caratteristiche similari. Nella rivista del mese di Agosto è stato pubblicato un articolo su questa fotocamera e le sue caratteristiche. A conferma di quanto detto basta vedere le immagini che si trovano sul sito ufficiale della Leica (http://it.leica-camera.com/) e che non necessitano di ulteriori spiegazioni.

immagine esempio scattata con la Leica M Monochrom Typ 246 il riquadro è un ingrandimento di 10 volte di una piccola porzione evidenziata con la cornice rossa nella foto. La nitidezza visibile nell’ingrandimento è unica

In sintesi le caratteristiche della Leica M Monochrom Typ 246 sono:

  • Gli obiettivi hanno una focale da 16 a 135mm
  • mirino a telemetro con cornice luminosa a seconda dell’ottica utilizzata
  • sensore di tipo CMOS da 24 Mega pixel di formato 23,9 x 35,8 mm senza filtro colore e filtro passa-basso
  • Risoluzione: DNG: 5976 x 3992 pixel (24MP), JPEG: 5952 x 3968 pixel (24MP), 4256 x 2832 pixel (12MP), 2976 x 1984 pixel (6MP), 1600 x 1072 pixel (1.7MP)
  • innesto a baionetta compatibile con gli obiettivi della serie M e della serie R
  • processore di immagine ad alte prestazioni “Maestro” ed una memoria di buffer con una capacità espansa a 2GB (30 fotografie in serie)
  • sensibilità da ISO 320 a ISO 12.500, regolabili con incrementi di 1/3 ISO
  • funzione Live View
  • la capacità di registrazione video Full HD 1080p in bianco e nero. Frame rate video di 25fps.
  • Tempi di scatto da 8 secondi a 1/4000 di secondo
  • Costo oltre 7000 euro (solo corpo)

viste della Leica M Monochrom Typ 246

Oltre alla Leica anche Samsung e Sony hanno fatto girare dei rumors che produrranno dei sensori full frame monocromatici ma ad oggi non sono stati messi in commercio altri modelli oltre a quelli citati.

 

FRANCESCO

questo articolo è stato pubblicato sulla rivista FOTOGRAFARE 11 (Novembre) del 2015 nella rubrica di ALTA FOTOGRAFIA.

P.S. Visto il tempo trascorso dalla pubblicazione va precisato che l’impianto tecnico dell’articolo è sempre valido ma risulteranno poco attendibili le eventuali ricerche di mercato o le scansioni temporali dei prodotti fotografici citati nel medesimo.

 

(2)

Lascia un commento

TOP