l’evoluzione dei CMOS – da FSI a BSI

by / lunedì, 18 marzo 2019 / Published in Alta Fotografia, Fotografia, Il blog

 

L’EVOLUZIONE DEI CMOS

I sensori CMOS, commercializzati dai primi anni del 2000 sono già profondamente cambiati. Vediamo come

 

I sensori CMOS sono stati sviluppati dopo i sensori CCD ma hanno presto conquistato una considerevole quota di mercato. Uno dei loro punti di forza è senza dubbio la loro ridotta dimensione che ne ha permesso l’introduzione in vari apparati, come ad esempio gli smartphone (telefonini di ultima generazione dotati di fotocamera). A tal fine va notato che nel 2008 il numero dei sensori di immagine prodotti per gli smartphone ha superato il numero di quelli prodotti per le fotocamere sia, reflex che mirrorless.

Si può trovare in rete uno studio sui dati di mercato relativi ai produttori di sensori CMOS e CCD. Da questi dati, riferiti agli anni dal 2010 al 2012, si evince che per i sensori CCD il 97% del mercato è gestito da soli tre marchi: Sony (con oltre il 50%), Panasonic e Sharp. Se consideriamo il mercato dei sensori CMOS troviamo: Sony (approssimativamente il 35%), Canon (circa 11%), Samsung (circa 11%). Troviamo inoltre, con quote minori, Panasonic, Toshiba, Nikon, Fujifilm, Aptina e Omnivision.

Va sottolineato che alcuni produttori di fotocamere utilizzano sia i propri sensori che sensori di altre marche. Ad esempio la recente fotocamera Nikon D800 utilizza il sensore full-frame da 36 Mega-pixel prodotto dalla Sony.

I primi sensori avevano risoluzioni ridotte come, ad esempio, i 6,3 Mega-pixel che erano utilizzati sulla Canon 300D. Nel 2002 nasce la prima reflex con sensore in formato full frame; la Canon EOS 1D-s di 11,4 Mega-pixel. Sempre nel 2002 viene lanciata la Sigma SD9 che montava un sensore Foveon X3 di 3,4 Mega-pixel (valore dichiarato dal costruttore circa 10 Mega-pixel).

Il mercato attuale propone per le fotocamere di elevate prestazioni: la Sigma DP2 con il sensore Foveon X3 quattro con il valore dichiarato di circa 40 Mega-pixel. Per i sensori full-frame: la Canon 1D-s Mark III di 21 Mega-pixel, la Sony Alpha 900 di 24,4 Mega-pixel e la Nikon D800 di 36,2 Mega-pixel. Per le fotocamere a medio formato troviamo l’Hasselblad H5D-50c di 50 Mega-pixel.

Abbiamo già parlato in dettaglio della struttura dei sensori CMOS in un precedente articolo e ci limitiamo a ricordare le parti principali della struttura del sensore.

schema di principio del sensore CMOS – la luce entra dall’obiettivo e attraversati le microlenti e la matrice di Bayer giunge sulla matrice di fotodiodi. Successivamente viene campionata ed inviata al processore di immagini.

La luce incidente viene catturata, dopo aver attraversato il filtro di Bayer, da ogni singolo pixel. L’informazione luminosa è convertita in digitale da un convertitore A/D (Analogico/Digitale) e successivamente memorizzata. Ovviamente ogni passaggio deve avvenire nel giusto ordine e con i tempi precisi stabiliti e gestiti dai circuiti di controllo.

I primi sensori di tipo CMOS avevano la struttura del tipo FSI (Front Side Illumination – illuminazione sul lato frontale).

struttura del sensore CMOS FSI – la luce attraversa per prima le microlenti e la matrice di Bayer. Attraversa tutti gli strati di connessioni presenti ed infine raggiunge il fotodiodo dove viene catturata.

Lo strato di silicio (fotodiodo) è posto in fondo alla struttura del circuito integrato. Nei primi tipi di sensore FSI la luce entra dal lato anteriore e dopo aver attraversato gli strati di connessione metallici arriva sulla superficie del fotodiodo che funge da rilevatore della luce incidente; in pratica viene copiato il funzionamento dell’occhio umano. Questa struttura è risultata efficiente fino a che il numero dei pixel era ridotto rispetto all’area attiva del sensore. Per aumentare la risoluzione del sensore è stato necessario ottimizzare il percorso ottico interno al chip utilizzando delle microlenti di alta qualità e creando delle precise guide che collimano la luce attraverso gli strati di connessioni metalliche.

la struttura standard FSI è prima stata migliorata aggiungendo dei percorsi per la luce incidente e successivamente migliorando il fotodiodo

Un ulteriore miglioramento è stato ottenuto agendo sul fotodiodo. E’ stato ottimizzato l’isolamento tra un fotodiodo ed il suo adiacente per minimizzare le interferenze cromatiche ed inoltre è stata aumentata la profondità dello strato di raccolta della luce per renderlo più efficiente.

Successivamente i sensori si sono evoluti nella struttura di tipo BSI (Back Side Illumination – illuminazione sul lato posteriore). Lo strato di silicio è posto nella parte alta della struttura, sopra gli strati metallici. Essendo stata sviluppata in un tempo successivo la struttura di partenza ha già utilizzato i miglioramenti sviluppati per quella precedente.

struttura del sensore CMOS BSI – la luce attraversa per prima le microlenti e la matrice di Bayer. Raggiunge subito il fotodiodo dove viene catturata. Gli strati di connessioni sono sistemati sotto lo strato dei fotodiodi.

Questa struttura elimina alla luce la necessità di passare attraverso gli strati di connessioni metalliche. La luce incidente dopo aver attraversato le microlenti, disposte secondo la matrice di Bayer, raggiunge subito l’area del chip con la funzione di fotodiodo. In questo modo si migliora la probabilità per la luce in ingresso di essere catturata da circa il 60% a oltre il 90%, questa differenza aumenta maggiormente quando le dimensioni dei pixel sono piccole.

Naturalmente le microlenti devono essere costruite in modo differente per ottenere la diversa messa a fuoco dell’intera struttura. In essa bisogna però stare molto attenti alla costruzione dell’isolamento di ogni singolo fotodiodo per non avere contaminazioni tra elementi adiacenti. La luce di colore blu è quella che risente in modo evidente di queste perdite.

FSI

BSI

Vantaggi

Svantaggi

Vantaggi

Svantaggi

Tecnologia provata con grande affidabilità e resa

Necessità di canalizzare la luce attraverso gli strati di metallizzazione per raggiungere il fotodiodo

Separazione degli elementi ottici dagli elementi elettrici

Possibili perdite tra fotodiodi adiacenti

Elevato rendimento per il rapporto prestazione/costo

Possibile diffrazione della luce prima di raggiungere il fotodiodo

Ridotto percorso della luce all’interno

Maggiori costi di produzione

Minor numero di fasi di lavorazione per la realizzazione

Difficile utilizzo degli strati di connessione

Possibilità di utilizzare per la produzione scale di integrazioni migliori (1,1 micron contro gli 1,4 micron del FSI)

Maggior numero di fasi di lavorazione per la realizzazione

A parità di prestazione con il BSI ha un costo inferiore

Difficile lavorazione sul secondo lato del chip

Possiamo quindi dar merito alla tecnologia FSI di aver sviluppato e realizzato i primi tipi di sensori di immagine basati sulla tecnologia CMOS. Il successivo sviluppo, specialmente nella riduzione della scala di integrazione, ha portato all’utilizzo dei sistemi basati su tecnologia BSI.

All’inizio del 2012 la Sony ha sviluppato per i sensori di tipo BSI gli Stacked CMOS (CMOS impilati) detti anche 3D. La circuiteria di supporto del fotodiodo è stata spostata sotto la sezione del fotodiodo per ogni pixel.

confronto tra CMOS BSI normali e “stacked” – per i primi la circuiteria è sulla superficie del chip ed è formata da meno elementi. Per i secondi la circuiteria è sotto il fotodiodo ed è formata da un numero decisamente più grande.

La tecnologia è stata commercializzata da Sony a metà del 2012 con il nome di Exmor RS, questi sensori di immagine avevano una risoluzione da 8 a 13 Mega-pixel effettivi.

sensore CMOS BSI Exmor che viene montato su vari smartphone

La struttura adottata per questi sensori è quella a “stack” (pila – tanti elementi sovrapposti). I necessari circuiti di controllo del singolo fotodiodo sono stati levati dalla superficie superiore e sono stati spostati sotto di essa. Questa struttura a pila ha permesso di ridurre l’area effettiva del singolo fotodiodo e contemporaneamente ha permesso di aumentare il numero di gate di controllo compresi nel chip (in pratica è quadruplicato). Con questo aumento è stato possibile inserire direttamente nel chip delle funzionalità in più. Ad esempio la funzione HDR (High Dynamic Range) che consente di aumentare la sensibilità senza compromettere il livello di risoluzione migliore. Come conseguenza abbiamo anche che la sensibilità alla luce è aumentata del 30%.

Il passaggio tra i vari tipi di tecnologia ha permesso di ridurre l’area necessaria per ogni singolo pixel. Ricordiamo che dire che il sensore ha una risoluzione di 10 Mega-pixel significa che sulla superficie esposta alla luce del sensore sono presenti circa dieci milioni di fotodiodi. Nei primi sensori l’area di silicio necessaria per realizzare un fotodiodo era di 1,75 micron (1 micron è uguale ad un millesimo di millimetro). Successivamente la tecnologia ha permesso di costruire il dispositivo fino a raggiungere gli 1,1 micron.

passaggio tra i vari tipi utilizzati per i sensori CMOS.

Oltre alla miniaturizzazione del sensore questo salto qualitativo ha comportato:

  • aumento della qualità generale dell’immagine

  • aumento della sensibilità alla luce, sono state prodotte delle fotocamere con sensibilità un tempo inimmaginabili (ad esempio la Canon 6D con sensibilità di 102400 ISO o la Nikon D4 con sensibilità di 409600 ISO, entrambe estrapolate da una sensibilità reale di 25600 ISO)

  • è stato possibile, specie sulle mirrorless o sugli smartphone, montare ottiche molto più compatte e corte

  • diminuzione del rumore associato al sensore.

A supporto dei miglioramenti tecnologici descritti sono state proposte delle strategie di miglioramento dell’acquisizione dell’immagine che vogliamo brevemente descrivere:

  • Sinergia delle componenti della fotocamera: la fotografia non dipende solo dal sensore ma dalla sinergia tra sensore, processore, obiettivo, stabilizzatore di immagine e sistema di autofocus. Come già detto alcuni smartphone hanno caratteristiche comparabili a quelle delle fotocamere compatte (l’iPhone 5S scatta foto a 10 fotogrammi al secondo – il Nokia Lumia ha una risoluzione di 41 Mega-pixel).

  • Risoluzione: i costruttori forniscono sempre la quantità di Mega-pixel del sensore ma spesso non dichiarano la grandezza del sensore che può influenzare in modo determinante il risultato finale dell’immagine. A parità di numero di pixel la grandezza del sensore influenza in modo determinante, ad esempio, la qualità delle stampe. Inoltre più il sensore è grande e maggiore è la sensibilità ISO della fotocamera.

  • sensori BSI: avendo a disposizione più spazio per i circuiti di controllo si possono implementare direttamente nel chip delle soluzioni software per la riduzione del rumore digitale.

  • HTC Ultrapixel: HTC, per i suoi smartphone di fascia alta, ha utilizzato sensori con risoluzioni relativamente basse ma con una superficie molto più ampia (detti ultrapixel) che catturano una quantità di luce 3 volte maggiore. Questi pixel permettono di registrare file leggeri nonostante l’elevata qualità dell’immagine. In definitiva si ottiene un aumento del 300% della luce catturata.

  • Nokia PureView: questa tecnologia utilizza il sovra campionamento dei pixel. Vengono combinati vari pixel acquisiti dal grande sensore ad alta risoluzione per riformare successivamente un singolo pixel nell’immagine finale con netti miglioramenti sia qualitativi che delle prestazioni in condizioni di scarsa luminosità. La Nokia utilizza nei suoi smartphone il sensore CMOS BSI PureView da 41 Mega-pixel dichiarati (38 effettivi). Questo sensore ha un formato da 1/1,5 pollici.

  • Lytro camera: La tecnologia Lytro, denominata Light-Field (campo di luce), consente di selezionare quali aree o quali soggetti mettere a fuoco all’interno delle immagini dopo averle scattate in modo da avere a disposizione un numero molto ampio di possibili immagini. Questa caratteristica permette notevoli possibilità creative permettendo di non preoccuparsi troppo dell’inquadratura al momento dello scatto.

  • CMOS Isocell: si utilizza la matrice dei pixel per aumentare la quantità di luce catturata. In tal modo si ottimizza la resa cromatica e la sensibilità alla luce.

Concludiamo cercando di immaginarci come potrà essere la fotocamera del futuro basandoci sulle anticipazioni proposte dai costruttori di fotocamere o dei suoi componenti.

Si può dire che i sensori del futuro dovrebbero tendere ad utilizzare la tecnologia CMOS, ed in modo più preciso quella di tipo BSI. Per gli smartphone è abbastanza prevedibile una standardizzazione delle dimensioni dei sensori tra gli 1/3,2 e ¼ di pollice. Sicuramente si cercherà di ridurre ulteriormente le dimensioni del sensore per aumentarne di conseguenza la risoluzione, ovviamente questo processo si scontrerà con i limiti fisici della costruzione. Possibili scenari di miglioramento sono certamente individuabili nella memorizzazione dei file fotografici in formato RAW e nella registrazione video nel formato 4K.

la fotocamera non può funzionare solo con il sensore di acquisizione delle immagini ma abbiamo bisogno anche di un processore di immagini. Ad esempio la Sony utilizza il processore Bionz

Sicuramente una menzione meritano gli studi della Sony per la realizzazione di un sensore curvo. Per facilità di costruzione gli obiettivi hanno una forma sferica ma devono far convergere l’immagine sulla superficie piana del sensore. Questa necessità fisica introduce delle curvature di campo che nella letteratura di settore sono note come “curvatura di campo di Petzval”. I raggi luminosi che incidono sulla periferia dell’obiettivo si vanno a focalizzare in un piano diverso da quelli che incido al centro. In pratica la superficie piana del sensore costringe i costruttori di obiettivi a realizzare complessi, e quindi costosi, gruppi ottici per minimizzare questo problema. L’uso di questi elementi costruiti ad hoc introduce degli altri problemi, come ad esempio le aberrazioni. Come si può facilmente immaginare la soluzione raggiunta non può che essere un compromesso tra i due diversi problemi. L’uso di sensori curvi permetterebbe di progettare ottiche molto più semplici poiché il percorso della luce non deve essere corretto. Il sensore curvo inoltre minimizza il problema della differenza di luce tra il centro ed i bordi. Secondi i dati forniti da Sony si incrementa di due volte la raccolta di luce ai bordi e di 1,4 volte al centro del sensore stesso.

La curvatura del sensore deve però essere abbinato ad una lente con una ben precisa curvatura poiché al variare della lunghezza focale, o della apertura del diaframma, essa deve cambiare di conseguenza. Quindi i sensori curvi possono essere utilizzati facilmente solo con ottiche o diaframmi fissi. Sony ha proposto uno zoom ottico piccolo (ne ha brevettato uno molto semplice) ma accoppiato ad uno zoom digitale molto esteso.

Speriamo che qualche costruttore riesca, in tempi brevi, a pensare e a realizzare un idea che al momento attuale noi non riusciamo neanche ad immaginare e che saremo sicuramente felici di scoprire.

FRANCESCO

questo articolo è stato pubblicato sulla rivista FOTOGRAFARE 12 (Dicembre) del 2014 nella rubrica di ALTA FOTOGRAFIA.

P.S. Visto il tempo trascorso dalla pubblicazione va precisato che l’impianto tecnico dell’articolo è sempre valido ma risulteranno poco attendibili le eventuali ricerche di mercato o le scansioni temporali dei prodotti fotografici citati nel medesimo.

(318)

Lascia un commento

TOP