le curve caratteristiche o di contrasto

by / domenica, 26 maggio 2019 / Published in Alta Fotografia, Fotografia, Il blog

 

Le CURVE CARATTERISTICHE o di CONTRASTO

la carta di identità per i sensori delle fotocamere digitali

 

 

Se chiedessimo ad una persona di descriverci la luce sicuramente non potremmo avere una risposta semplice poiché definire esattamente la luce non è facile. Da alcuni ricercatori è stata dimostrata la dualità della natura della luce, essa a volte può essere di natura corpuscolare altre volte una radiazione elettromagnetica. In questo articolo prenderemo in esame solo la seconda ipotesi e consideriamo che la luce è una radiazione elettromagnetica, come lo sono anche le onde radio o i raggi X. La caratteristica principale della radiazione elettromagnetica è la sua lunghezza d’onda, cioè dopo quando tempo il segnale riassume le stesse caratteristiche. Le onde sono classificate in onde lunghe (trasmissioni radio), onde corte (trasmissioni televisive o telefonia), onde cortissime (raggi X) e onde visibili (la luce visibile). La luce ha un ristretto intervallo di lunghezze d’onda al centro dello spettro che viene detto visibile. I nostri occhi riescono a captare una radiazione elettromagnetica (luce) le cui lunghezze d’onda siano comprese tra circa 400 nm (zona del blu) e circa 700 nm (zona del rosso). Un nm (nanometro) è pari ad un miliardesimo di metro. Lo spettro visibile è compreso tra le onde ultraviolette e le onde infrarosse che possono essere analizzate solo mediante opportuni strumenti di misura.

Radiazioni elettromagnetiche: a seconda della frequenza utilizzata passiamo da onde ultracorte dei raggi Gamma (radiazione cosmica) fino alle trasmissioni a onde lunghissime (suoni emessi dagli elefanti).

Spesso siamo portati ad associare la luce alla radiazione solare, che chiamiamo anche luce naturale o luce bianca. Lo spettro della luce solare va da 250 nm a circa 2500 nm, che è un intervallo maggiore di quello della luce visibile. Lo spettro di questa luce non è uniforme ma presenta un massimo in corrispondenza alla luce visibile.

Il funzionamento del nostro occhio è molto simile a quello di una fotocamera. L’occhio percepisce l’immagine attraverso il cristallino, che permette anche la messa a fuoco della scena, e sul fondo della retina la ricostruisce per comunicarla attraverso il nervo ottico al cervello che la elabora. Va detto che la nostra visione è facilmente ingannabile, ad esempio da scene troppo veloci o da semplici “trucchi visivi”. Dobbiamo inoltre ricordare che il nostro occhio è molto sensibile alla luminanza della scena, infatti al buio perdiamo la visione del colore e vediamo solo in bianco e nero.

Percezione dell’occhio umano. Quante zampe ha l’elefante? Dobbiamo faticare per contarle correttamente poiché il nostro occhio è facilmente ingannabile.

Quando percepiamo i colori inoltre riusciamo a vederli non in modo uniforme ma l’occhio è maggiormente sensibile alle frequenze al centro dello spettro è cioè più al verde che non agli altri colori fondamentali. La retina dell’occhio è formata da recettori che distinguono in modo selettivo lo spettro della luce. Questo fenomeno è riassunto nella curva della sensibilità caratteristica dell’occhio.

Curve di sensibilità dell’occhio umano. Sono rappresentate le diverse componenti per le singole frequenze (la curva del Blu va moltiplicata per dieci)

La percezione del colore richiede tre componenti: l’illuminatore , la fonte della radiazione alla fissata frequenza; un corpo interferente con la radiazione, il riflettore; e un ricevitore sensibile alla radiazione, l’occhio, la pellicola o il sensore.

I principali parametri del fenomeno sono:

  • opacità e trasparenza: rispettivamente quando la luce viene riflessa o attraversa il ricevitore. Queste grandezze non sono legate al colore ma alla caratteristica superficiale del mezzo;

  • tinta o tono: la lunghezza d’onda dell’illuminatore;

  • saturazione: ci permette di differenziare un colore brillante da uno smorto.

  • luminosità: ci fa distingue un colore chiaro da uno scuro (ad esempio il rosa dal rosso)

La colorimetria, la scienza che studia i fenomeni legati alla luce e alla sua gestione, ha standardizzato nel 1931 grazie al Comitato Internazionale per l’Illuminazione (CIE) le curve di sensibilità per un osservatore medio con campo di vista di due gradi. Sono così state trovate le curve utilizzate come riferimento standard (Color Matching Functions (CMF)) per assegnare le coordinate colorimetriche (X, Y e Z) per qualsiasi spettro all’interno della luce visibile.

grafico CMF

La caratteristica delle CMF è che il canale Y rappresenta anche il valore di luminanza delle sorgente. Nel 1931 è stato inoltre standardizzato lo spazio di colore specificato dai valori di x e y noto come spazio di colore CIE xy.

Diagramma di cromaticità dello spazio di colore CIE xy del1931. Il bordo curvo esterno è il luogo dei colori spettrali (o monocromatici), con le loro lunghezze d’onda indicate in nanometri. Al centro troviamo il colore bianco

Il diagramma rappresenta tutte le componenti cromatiche visibili per un occhio medio. La curva forma una figura chiusa che comprende la visione umana. Il bordo curvo è il luogo dei colori spettrali, cioè il luogo dei colori a luce monocromatica per le corrispondenti lunghezze d’onda. Il bordo retto della parte inferiore è detto linea delle porpore. I colori meno saturati appaiono all’interno della figura con il bianco al centro.

Per capire come funzionano le curve caratteristiche per i sensori di immagini facciamo un passo indietro andando ad analizzarne il funzionamento per le pellicole in bianco e nero. Non vogliamo ovviamente fare una trattazione rigorosa ma un veloce sunto, per un lettore interessato esiste una grande bibliografia sull’argomento.

Per analizzare la fotografia in bianco e nero è stata sviluppata la sensitometria, lo studio del rapporto fra causa ed effetto. Nei procedimenti fotochimici di riproduzione la luce emessa dal soggetto fotografato corrisponde alla causa. L’effetto di questa luce va ad impressionare l’emulsione sensibile, cioè produce l’annerimento dovuto allo sviluppo. Il risultato è buono quando i rapporti tra la luminosità delle varie parti sono tradotti in equivalenti rapporti di annerimento o densità del materiale sensibile.

curva caratteristica della pellicola in Bianco e Nero, detta anche curva di Hurter e Driffield

L’applicazione della sensitometria ci permette di specificare, in modo matematico, le norme per l’intero processo fotografico (l’illuminazione e la temperatura di colore, i prodotti chimici usati per lo sviluppo, il tipo di carta etc.). Questi ed altri parametri ci permettono di fissare in modo ripetitivo, cioè utilizzabile per un processo industriale, le operazioni necessarie ad ottenere una foto ben esposta.

Per le pellicole in commercio i costruttori forniscono il grafico, per comodità di lettura le ascisse sono riportate in scala logaritmica, che viene definito nella letteratura tecnica la curva caratteristica o curva H-D, dalle iniziali dei nomi dei due primi ideatori, Hurter e Driffield. La curva caratteristica è formata dalle seguenti zone:

  • zona di velo: l’esposizione in questa zona non è sufficiente ad impressionare la pellicola (dovuta ad azione chimica del rilevatore, temperatura dello sviluppo etc.)

  • Zona di sottoesposizione (detta anche piede): l’esposizione non è ancora corretta (perdita dei dettagli nelle ombre)

  • Zona di corretta esposizione: la pendenza della curva è proporzionale al contrasto della foto

  • Zona di sovraesposizione (detta anche spalla): il massimo annerimento che può essere percepito

  • Zona di solarizzazione: si ha la distruzione dell’immagine latente e quindi di ottiene un’immagine bianca (effetto Herschel)

Va ricordato che è possibile agire per variare la curva caratteristica anche sui parametri chimico-fisici del processo di sviluppo (tempo, temperatura, agitazione, rilevatore, PH etc.).

Dall’esame della curva emergono tutte le caratteristiche della pellicola (da cui il nome) che, correttamente interpretate, forniscono un gran numero di informazioni. E’ sulla base di queste informazioni che sono state progettate e realizzate le sviluppatrici automatiche per la stampa delle fotografie.

Quando scattiamo una foto la prima aspettativa, oltre al risultato tecnico soddisfacente, è percepire una sensazione di piacevolezza, la foto deve avere il giusto contrasto, morbidezza, saturazione, incisività etc..

In sintesi possiamo dire che la curva caratteristica è una funzione matematica che utilizzando i valori di esposizione ci permette di ottenere un’immagine che possiamo definire piacevole, dal punto di vista del contrasto luminoso e cromatico.

Passando alla fotografia digitale quanto detto finora ci porta a definire una criticità per l’acquisizione delle immagini: la corretta mappatura dei toni della scena fotografata rispetto alla luce che è stata catturata dal sensore. Questo processo è spesso inserito in post-produzione nella fotocamera o demandato a specializzati programmi di elaborazione delle immagini; i due processi sono però basati sugli stessi principi.

Abbiamo visto che la colorimetria è basata sulla fisiologia dell’occhio umano. Quali sono invece i processi che interagiscono con i sensori delle fotocamere durante l’acquisizione delle immagini? Tutti i sensore, siano essi di tipo CMOS o di tipo CCD, acquisiscono l’energia dell’onda elettromagnetica incidente e la convertono in un segnale elettrico ad essa proporzionale.

I sensori al silicio sono sensibili a lunghezze d’onda da poco più di 300 nm fino a circa 1.200 nm, ma all’interno di questo intervallo non hanno modo di distinguere spettri di colori diversi. Per poter quindi utilizzare questi sensori per la fotografia a colori sono necessari due accorgimenti.

  • Per prima cosa è necessario eliminare le radiazioni che cadono al di fuori della banda del visibile. Questa operazione è realizzata mediante un filtro passa banda accordato sulla frequenza degli ultravioletti e degli infrarossi che lascia passare inalterata solo la luce visibile. Contemporaneamente un secondo filtro viene utilizzato per attenuare l’eccesso di sensibilità nella banda del rosso così da avere una sensibilità il più uniforme possibile.

  • Il secondo accorgimento è raggruppare i singoli pixel in gruppi di quattro dove uno è sensibile al rosso, uno al blu e due al verde. Per questo scopo vengono utilizzati dei micro filtri ottici sensibili ai vari colori primari. Questo equivale al meccanismo di visione della retina dove, punto per punto sono presenti coni con sensibilità nel blu, nel verde o nel rosso. Questo sistema, inventato da Bryce Bayer, brevettato dalla Kodak negli USA nel 1976, prende il nome di Matrice di Bayer. Questo metodo è già stato affrontato nei precedenti articoli sui sensori di immagini.

Nikon D800 – caratteristica C) risultante dal filtro per eliminare gli infrarossi e gli ultravioletti A) e della attenuazione dei rossi B) applicata ai dati acquisiti dal sensore

Utilizzando la curva caratteristica possiamo rappresentare una scala dei grigi correttamente esposti per tutti i possibili intervalli di esposizione della scena. È molto importante che il sensore di immagini ci dia un risultato che risulti gradevole ai nostri occhi a prescindere dal tipo di sensore. Quando veniva usata la pellicola la scelta della marca della pellicola, fortemente basata sull’esperienza del fotografo, era legata ai risultati che si volevano ottenere; quella specifica marca rendeva molto meglio i rossi e quindi era sicuramente preferita per i ritratti.

In generale è il fotografo che deve conoscere le differenze esistenti tra le pellicole ed i sensori e deve scegliere di conseguenza i migliori accorgimenti per lo scatto che vuole effettuare.

La pellicola reagisce molto meglio ad una esposizione troppo alta alla luce; le pellicole, ed ancora di più le diapositive, riescono a tollerare anche quattro o cinque stop di sovraesposizione (questa caratteristica è ancora più accentuata per le pellicole con una sensibilità molto bassa). È possibile sfruttare questa caratteristica per schiarire le ombre in una fotografia ad alto contrasto luminoso o per “tirare” (impostare il valore degli ISO nominali della pellicola ad un valore superiore) la pellicola che con un opportuno sviluppo permette ancora dei risultati soddisfacenti. Purtroppo non è possibile variare la sensibilità solo per una parte della pellicola e questa caratteristica rende l’uso dei sensori molto più flessibile.

Inoltre il digitale ci permette la verifica immediata dell’esposizione ma al contrario ci richiede una maggiore precisione nell’impostazione dei parametri della fotografia.

La curva caratteristica ci permette di attenuare i toni chiari e quelli scuri e contemporaneamente esalta i toni medi, esattamente come nella visione dell’occhio umano. Così facendo non stiamo tendendo a raggiungere la realtà ma la stiamo adattando alla nostra visione.

Un grande vantaggio che ci fornisce la fotografia digitale è quello di poter provvedere direttamente alla post-produzione delle immagini. Esistono tantissimi programmi che ci permettono di elaborare le caratteristiche dell’esposizione, va comunque ricordato che più il programma ci fornisce strumenti e più complicato risulterà il suo utilizzo. L’aumento delle prestazioni dei processori di immagini permette una prima elaborazione delle medesime in modo automatico o sulla base di parametri personalizzati dal fotografo (come ad esempio se la scena va ripresa a colori o monocromatica). Questa elaborazione è effettuata direttamente nella fotocamera prima di salvare l’immagine nella sua forma finale.

Uno dei formati digitali che ci permette la maggiore flessibilità e sicuramente il formato RAW, detto anche negativo digitale, poiché l’immagine viene salvata utilizzando le informazioni che vengono acquisite direttamente dai tre canali associati ai colori primari.

Una diretta applicazione di quanto detto fino ad ora possiamo vederlo andando ad analizzare ed utilizzare le particolari curve che sono fornite direttamente dalla fotocamera: gli istogrammi. Vengono riportato a titolo di esempio gli istogrammi che caratterizzano lo stesso soggetto ma con due foto scattate in condizioni molto diverse. È facile vederne la differenza.

esempio di istogrammi: a sinistra si vede la fotografia come viene trattata in post-produzione con un programma di grafica a destra la stessa fotografia e vista, evidenziati gli istogrammi, sul monitor della fotocamera

Non va infine dimenticato che ormai le nostre fotografie raramente vengono stampate ma spesso vengono viste su uno schermo e questo passaggio introduce un ulteriore complessità a tutto il sistema.

 

FRANCESCO

questo articolo è stato pubblicato sulla rivista FOTOGRAFARE 3 (Marzo) del 2015 nella rubrica di ALTA FOTOGRAFIA.

 

P.S. Visto il tempo trascorso dalla pubblicazione va precisato che l’impianto tecnico dell’articolo è sempre valido ma risulteranno poco attendibili le eventuali ricerche di mercato o le scansioni temporali dei prodotti fotografici citati nel medesimo.

(1)

Lascia un commento

TOP