51
L’occhio del biologo Elementi di fotografia Dr Marco Benini [email protected] Università degli Studi dell’Insubria 2015

L'occhio del biologo: elementi di fotografia

Embed Size (px)

Citation preview

L’occhio del biologoElementi di fotografia

Dr Marco Benini

[email protected]

Università degli Studi dell’Insubria

2015

Argomenti

■ Struttura di una macchina fotografica digitaleä Sensore: dimensione, risoluzione, tecnologia, sensibilità, rumore, range

dinamicoä Otturatore: tempi di esposizioneä Diaframma: apertura

■ Tecnica fotografica di baseä Messa a fuoco: distanza iperfocaleä Profondità di campo

■ Coloreä Acquisizione: filtro Bayer, filtri sul sensoreä Emissioni: spazio RGBä Stampa: spazio CMYKä Formati: RAW, JPGä Distorsioni: lettura degli istogrammiä Gestione di base: canali coloreä Filtri: UV, filtri colorati

(2 of 51)

Argomenti

■ Post-produzione di baseä Luminositàä Contrastoä Bilanciamento dei canali coloreä Istogrammi e curveä Acquisizione multipla: compressione del rumore

(3 of 51)

Diagramma di una fotocamera digitale

'&

$%

- -

? ? ?

6 6 6

CPU

lente lente filtro

diaframma otturatore sensore

(4 of 51)

Diagramma di una fotocamera digitale

■ le lenti servono per convogliare la luce sul sensore■ il diaframma regola la quantità di luce che arriva al sensore■ l’otturatore regola il tempo per cui il sensore è esposto alla luce■ il filtro elimina o riduce una porzione dello spettro luminoso■ il sensore registra l’immagine trasformando il segnale luminoso in unsegnale elettronico

■ la CPU trasforma il segnale elettronico del sensore in una immaginedigitale

(5 of 51)

Il sensore

In prima approssimazione, un sensore è una griglia di elementi, detti pixel, ingrado di registrare la quantità di luce che li colpisce.

mmmmm

mmmmm

mmmmm

mmmmm

mmmmm 6

?

-� x

y

"CCD Image sensor" di Sphl—Opera propria. Con licenza CC© BY:© C© 3.0 tramite Wikimedia Commonshttp://commons.wikimedia.org/wiki/File:CCD_Image_sensor.jpg

(6 of 51)

Il sensore

Le principali caratteristiche di un sensore sono:■ il formato: la sua dimensione (x ,y) in millimetri e la proporzione x/y ,tipicamente 4 : 3, 3 : 2 o 1 : 1

■ la risoluzione: la quantità di pixel presenti sul sensore■ il range dinamico: essenzialmente, la quantità di valori che un pixel puòassumere

■ la sensibilità: sostanzialmente, la quantità di luce che serve permodificare il valore di un pixel

■ l’architettura: la tecnologia impiegata nella costruzione del sensore e ilmodo in cui questo viene letto

(7 of 51)

Il sensore

La combinazione di formato e risoluzione determina la dimensione massimadi un pixel. Questa, a sua volta, determina la qualità dell’immagine.Tuttavia, non è vero che, a parità di formato, una risoluzione maggiorerestituisca una immagine più precisa: più i pixel sono piccoli, più siinfluenzano l’un l’altro.Inoltre, ogni lente soffre di diffrazione: al di sotto di un certo valore didimensione, che dipende dalle caratteristiche della lente, le componenti dellostesso raggio di luce potranno essere, erroneamente, convogliate su pixeldifferenti.

(8 of 51)

Il sensore

Ogni pixel è dotato di una sensibilità intrinseca che dipende dalla suacostruzione.Ovvero, un pixel registra allo stesso modo due raggi di luce la cui intensitàdifferisca per una quantità inferiore ad una soglia chiamata sensibilità.Ogni sensore ha una sensibilità naturale, che dipende dalle sue caratteristichestrutturali. Ma la CPU o il sensore stesso può variare la propria sensibilitàapparente, agendo con un opportuno fattore di moltiplicazione nellaconversione del valore analogico di un pixel ad un valore digitale.La sensibilità si misura, come per le pellicole fotografiche, in gradi ISO.Valori usuali per la sensibilità naturale di un sensore sono 50, 100 o 200 ISO.L’ampiezza dei valori digitali possibili costituisce il range dinamico delsensore, e, assieme alla sensibilità, stabilisce la gamma di toni, dal nero albianco, che il sensore è in grado di registrare.

(9 of 51)

Il sensore

Esistono, ad oggi, due principali tecnologie per la costruzione di sensori:CMOS e CCD.La tecnologia complementary metal oxide semiconductor (CMOS) è piùrecente e offre il vantaggio che ogni pixel provvede autonomamente araccogliere la luce e a trasformarne l’intensità in un valore numerico digitale.La tecnologia charge-coupled device (CCD), precedente alla CMOS,consente di costruire pixel più semplici elettronicamente e, seppur il processodi formazione dell’immagine digitale avviene a valle del sensore, complicandola relativa circuiteria, i pixel sono, generalmente, più piccoli, permettendomaggior risoluzione.In linea di massima, i sensori CMOS sono più economici, ma meno precisi.Occorre comunque tener conto che gli avanzamenti tecnologici sono statinotevoli, e oggi esistono sensori CMOS su fotocamere professionali, e sensoriCCD montati su fotocamere compatte.

(10 of 51)

Il sensore

Nessun sensore è in grado di osservare passivamente la luce e di registrarlafedelmente. I limiti strutturali e tecnici introducono inevitabilmente deidisturbi di cui occorre esser consci: collettivamente, questi vanno sotto ilnome di rumore.Con notevole semplificazione, ad uso di questo corso, possiamo classificare ilrumore associabile al sensore in■ rumore termico: dovuto alla generazione di calore da parte dell’elettronica■ rumore da osservazione: leggere il valore analogico di un pixel richiedeun’azione che necessariamente modifica il valore stesso

■ rumore da quantizzazione: dovuto alla conversione da analogico a digitale■ rumore ottico: dovuto al fatto che una lente non trasporta fedelmente unraggio di luce sul sensore in tutte le sue componenti

■ rumore strutturale: dovuto alla tecnologia adottata. Tipicamente, unpixel non copre tutta l’area possibile, ma solo una sottoparte,effettivamente sprecando una parte dell’informazione

(11 of 51)

L’otturatoreL’otturatore ha lo scopo di esporre il sensore alla luce per un tempoprefissato. È uno dei principali elementi che determinano l’esposizione.Accenniamo al fatto che un sensore CCD può avere un otturatoreelettronico, pur con una sensibile riduzione della superficie fotosensibile diogni pixel. Questo è utile per ridurre le vibrazioni che il comune otturatoremeccanico necessariamente induce, specialmente negli scatti ad alta velocità.Anche, rammentiamo che l’uso di un flash richiede una precisa, e nonbanale, sincronizzazione con l’otturatore al fine di ottenere una illuminazioneuniforme del soggetto.

"Focal-plane shutter" di Hustvedt—Opera propria. Con licenza CC© BY:© C© 3.0 tramite Wikimedia Commonshttp://commons.wikimedia.org/wiki/File:Focal-plane_shutter.jpg

(12 of 51)

Il diaframmaIl diaframma regola la quantità di luce che può arrivare al sensore. Conl’otturatore è il principale elemento che determina l’esposizione.Quando il diaframma è completamente aperto, la lente opera alla suamassima luminosità, che dipende dalle sue caratteristiche ottiche. Tuttavia,ogni lente ha un’apertura del diaframma ottimale nella quale la nitidezza èmassima.La caratteristica più importante di una esposizione, che viene controllata daldiaframma, è la profondità di campo.

(13 of 51)

LentiNon è scopo di questo corso illustrare le molte caratteristiche strutturalidelle varie lenti e degli obiettivi. Ci limiteremo brevemente a illustrare ilsignificato della messa a fuoco.Allontanando o avvicinando la lente al piano del sensore, la luce vieneconvogliata sulla sua superficie in modo tale che un punto nello spazioappaia come un disco di diametro variabile. Questo diametro, dipende,fissata la posizione della lente e quindi la messa a fuoco, dalla distanza delpunto dalla lente.L’occhio umano percepisce questo disco, detto circolo di confusione, comeun punto se il suo diametro nell’immagine finale è sufficientemente piccolo.Fotograficamente, diciamo che quel punto è a fuoco.

����

����

PPPPPPPP

@@@���

(14 of 51)

Fuoco

Quindi, l’insieme dei punti a fuoco è determinato dalla distanza di questidalla lente, e questo insieme forma un volume la cui sezione è

@@@

@@@

������ campo visivo

zona a fuoco

lente

Ogni obiettivo ha una distanza minima di messa a fuoco, determinata dallesue caratteristiche ottiche, e una distanza massima, spesso infinito o oltre.

(15 of 51)

Iperfocale

Uno degli effetti desiderabili è massimizzare il volume di spazio a fuoco.La distanza iperfocale è la distanza minima che consente di mettere a fuocoun soggetto mantenendo gli oggetti all’infinito accettabilmente nitidi.Quando la lente mette a fuoco a questa distanza, tutti gli oggetti che sitrovano tra metà della distanza iperfocale e l’infinito sarannoaccettabilmente a fuoco.La distanza iperfocale si calcola come

H = f 2Nc ,

con H la distanza iperfocale in millimetri, f la focale dell’obiettivo, N ilvalore di apertura del diaframma, e c il diametro del circolo di confusione.Si noti come il circolo di confusione dipende dalla dimensione a cui saràosservata l’immagine finale e, in modo più sottile, dal formato del sensore edalla sua risoluzione.

(16 of 51)

Profondità di campo

La profondità di campo indica l’ampiezza della zona a fuoco. Essa dipendedalla focale dell’obiettivo, dall’apertura del diaframma, e dalla distanza delsoggetto dalla fotocamera.Precisamente, fissata la lente, la profondità di campo aumenta:■ con la distanza del soggetto dall’obiettivo■ con la chiusura del diaframma

A destra, lo scatto è stato fatto con apertura f/2.8, a sinistra con aperturaf/16, regolando l’otturatore per mantenere la stessa esposizione.

(17 of 51)

Profondità di campo

In realtà, la zona perfettamente a fuoco è sempre estremamente sottile: lasua profondità corrisponde al valore per cui i raggi di luce formano circoli diconfusione di diametro inferiore al pixel sul piano del sensore.Tuttavia, come nella presentazione della distanza iperfocale, l’occhio umanopercepisce circoli di confusione sufficientemente piccoli come punti. Sapendoquale sia la dimensione desiderata dell’immagine, è possibile calcolare ladimensione del massimo circolo di confusione che generi un punto, e quindi,la profondità di campo che è necessaria per avere il soggetto completamentea fuoco.

(18 of 51)

Profondità di campo

Chiamando piano di fuoco la zona perfettamente a fuoco, la profondità dicampo si estende davanti e dietro di esso in modo differente:

@@@

@@@

������6

?

profondità di campopiano di fuoco�

QQ

QQQk

È importante notare come il piano di fuoco sia, in realtà, curvo.

(19 of 51)

Profondità di campo

Fissato un piano di fuoco, è possibile calcolare la profondità di campo con leseguenti formule:

DN = HSH +S (1)

DF = HSH −S ,per S <H (2)

dove H è la distanza iperfocale, S la distanza del soggetto, e la profondità dicampo di estende dalla distanza DN (più vicino) a DF (più lontano).Queste formule sono approssimazioni valide quando S è decisamentemaggiore della lunghezza focale dell’obiettivo.

(20 of 51)

Profondità di campo

Nel caso in cui la distanza S sia prossima alla lunghezza focale della lente,conviene usare la seguente formula

D = 2Nc1+m/P

m (3)

con N l’apertura di diaframma (f-number), c il diametro del cerchio diconfusione massimo che si accetti come punto, m il fattore di ingrandimentodell’immagine, e P il fattore di ingrandimento della pupilla dell’obiettivo.Allora D misura l’ampiezza della profondità di campo e, ragionevolmente, ilpiano di fuoco è al suo centro.Si tenga conto che anche questa formula è una approssimazione valida solose S è molto minore di H, la distanza iperfocale.

(21 of 51)

Filtri sul sensore

Usualmente, un sensore è idealmente provvisto di tre filtri che ne proteggonola superficie e ne influenzano il funzionamento:■ un filtro Bayer per la resa del colore■ un filtro UV (ultravioletto) per ridurre/eliminare la componente invisibilead alta energia della luce

■ un filtro IR (infrarosso) per ridurre/eliminare la componente a bassaenergia della luce

Occorre tenere presente che il silicio, che è l’elemento chimico di base deicomponenti elettronici, è particolarmente sensibile alla luce infrarossa, quindiil filtro IR è solitamente un attenuatore. Al contrario, il filtro UV èusualmente quasi bloccante, anche per l’effetto combinato di assorbimentoda parte della lente.Generalmente, il filtro UV e il filtro IR sono integrati in un filtro AA(antialiasing), che viene applicato al sensore su due strati, il primo deputatoal taglio della luce infrarossa, e il secondo al mantenimento della luce visibilee alla protezione del sensore dalla polvere.

(22 of 51)

Filtri sul sensore

Il nome del filtro deriva dall’effetto di aliasing (scalettatura) che, insiemeall’effetto Moivre, dipende dal campionamento che il sensore effettua edall’interazione con il filtro di Bayer.È opportuno rammentare anche che un sensore fotografico normale è taratoper registrare la luce nello spettro del visibile e, senza i filtri AA lafotocamera non sarà in grado di usare le funzioni di pulizia del sensore e,soprattutto, i meccanismi di autofocus.Inoltre, il software che trasforma i segnali del sensore in immagini assume lapresenza dei filtri AA, e la loro rimozione o alterazione, necessaria inparticolari campi della fotografia, andrà ad alterare il funzionamento delsoftware, in particolare si perderà un corretto bilanciamento del bianco.

(23 of 51)

Costruzione del colore

Sebbene vi siano numerosi metodi per catturare il colore in un sensore, ilmeccanismo più diffuso consiste nell’usare un sensore monocromatico a cuisia applicato un filtro di Bayer

Esso usa una quadrato di quattro pixel come base, in cui due siano di coloreverde, uno rosso e uno blu, come in figura. Questa distribuzione approssimabene la visione dei colori da parte degli esseri umani.

(24 of 51)

Colore e range dinamico

Il range dinamico misura quanti toni differenti un pixel del sensore è in gradodi rappresentare. Solitamente, questo valore è dato in numero di bit: 10, 1214 sono valori tipici, che corrispondono a 210 = 1024, 212 = 4096,214 = 16384 valori.Questo significa che, presente un filtro Bayer, l’immagine finale registratadal sensore avrà tre valori per ogni pixel, rispettivamente il tono di rosso,verde e blu, ottenuti interpolando i toni effettivamente letti dai pixel.Il processo di interpolazione quindi preserva il range dinamico dell’immaginea discapito della risoluzione.Purtroppo, il range dinamico in ogni singolo colore non può essere pari allivello registrato da ogni pixel. La conversione analogico/digitale, l’eventualeamplificazione del segnale, la correzione di gamma, l’adattamento dellacurva colore, e molte altre manipolazioni effettuate dall’hardware o dalsoftware della fotocamera aumentano il rumore e riducono il range dinamicoa valori compresi tra 5 e 9 bit, tipicamente, ovvero tra 32 e 512 tonieffettivamente rilevati.

(25 of 51)

Spazi colore

Un colore può essere descritto in molti modi: è al di fuori degli obiettivi diquesto corso una trattazione dettagliata.Un fatto semplice è che un colore può essere utilmente separato incomponenti primarie, la cui composizione genera il colore desiderato. Questoprocesso avviene in tre casi importanti:■ nell’acquisizione di un’immagine■ nella generazione di un’immagine su di un video■ nella stampa di un’immagine

(26 of 51)

Spazio RGB

Come abbiamo detto, il filtro Bayer consente di associare ad ogni pixel trevalori che rappresentano assieme il colore di quel pixel: la componente rossa,verde, e blu.Parimenti, un’immagine sullo schermo di un computer è un insieme di punticiascuno dei quali assume un colore che è descritto dalle tre componentirosso, verde, e blu.Lo spazio RGB (Red–Green–Blue) descrive i possibili colori comecombinazione di queste tre componenti base. È uno spazio addittivo: uncolore viene generato sommando le tre componenti, quindi, ad esempio,aumentare il valore di una componente accresce il suo apporto.

(27 of 51)

Spazio CMYK

Al contrario, la stampa viene effettuata in uno spazio sottrattivo: i pigmentidi colore primario vengono depositati su un punto del foglio, e ognuno di essiassorbe la componente di luce in una quantità proporzionale alla quantità dipigmento. Il colore del punto diverrà pertanto il colore della luce riflessa,esattamente quella che non viene assorbita dai pigmenti sul punto.Per questo motivo, in stampa, si usa uno spazio colore differente, acomposizione sottrattiva: lo spazio CMYK (Ciano–Magenta–Yellow–blacK).

(28 of 51)

Relazione tra gli spazi colore

I colori primari nello spazio CMYK si ottengono da quelli nello spazio RGBper complemento:■ Ciano = Blu + Verde, complementare a Rosso■ Magenta = Blu + Rosso, complementare a Verde■ Giallo = Verde + Rosso, complementare a Blu

Per aumentare il range dinamico della stampa, e ridurre la quantità dipigmenti colorati da utilizzare, è consuetudine aggiungere il nero alladescrizione del colore da riprodurre.

(29 of 51)

Immagine digitale

Il risultato del processo di acquisizione di un’immagine è un documentoelettronico. Questo viene normalmente generato dalla fotocamera in dueformati: un file RAW, e/o un file JPEG.I due formati non sono equivalenti: non si tratta di due rappresentazionidella medesima informazione, ma di due informazioni diverse, seppurcorrelate.Il file RAW è la rappresentazione più vicina a quanto acquisito dal sensore.Esso rappresenta l’analogo digitale di un negativo fotografico.Un file JPEG è, a tutti gli effetti, l’analogo digitale di una fotografia: è unformato largamente usabile in ogni software che tratti immagini, èdirettamente stampabile, è direttamente trasmissibile via Internet.

(30 of 51)

Formato RAW

Un sistema fotografico registra i dati acquisiti da uno scatto in un file RAWche corrisponde a quanto registrato dal sensore e pre-elaborato. In linea dimassima, un file RAW contiene una descrizione dell’immagine pixel per pixel,riportando per ogni pixel i valori dei tre canali colore, oltre a vari metadaticome, ad esempio, l’apertura del diaframma e il tempo di esposizione.Il formato RAW, generalmente, contiene dati che non sono stati elaborati,ad esempio, il bilanciamento del bianco, o la regolazione del contrasto, o lanitidezza dell’immagine.Il formato RAW è proprietario: esso dipende dalla casa produttrice dellafotocamera e, talora, dal modello. Le case maggiori hanno reso disponibilemetodi per decodificare questi file da parte di software di terze parti.

(31 of 51)

Formato JPEG

Il formato jpeg è lo standard de facto per l’archiviazione delle immaginifotografiche, così come è il normale formato per l’interscambio di questotipo di immaginiLa rappresentazione dei dati al suo interno è stata concepita come uncompromesso tra il mantenere la qualità apparente dell’immagine e lanecessità di ridurre le dimensioni del file. Questo viene ottenuto,semplificando, con una compressione che si basa sulla riduzione dellevariazioni di tono in aree di colore omogeneo.Per la pubblicazione, la stampa, e la trasmissione un file jpeg può essereconsiderato il prodotto finale del processo fotografico digitale, l’analogo delpositivo sviluppato della fotografia tradizionale.

(32 of 51)

Formato TIFF

Il formato TIFF è un formato molto usato per l’archiviazione di immaginiscientifiche. A differenza del formato RAW esso è libero e nonspecificatamente legato al marchio della fotocamera. A differenza delformato jpeg esso non usa una compressione lossy.Il formato TIFF, nella sua versione più utilizzata, ha due caratteristicheinteressanti per la fotografia scientifica:■ l’immagine viene compressa usando un algoritmo generico per dati,solitamente LZW. Questo significa una minore capacità di compressionerispetto a jpeg, ma anche che i dati decompressi sono esattamente idati originali, senza alcuna perdita di informazione;

■ l’immagine può essere a 8 o a 16 bit, ovvero il formato TIFF consente dimemorizzare immagini con un range dinamico superiore al formato jpeg,che è limitato a 8 bit. Tuttavia, occorre sottolineare che non tutti isoftware fotografici sono in grado di usare questa caratteristica di TIFF.

(33 of 51)

Istogrammi

Molte moderne fotocamere e tutti i software fotografici mettono adisposizione uno strumento importante per descrivere sinteticamenteun’immagine: il suo istogramma.L’istogramma è un grafico che riporta in ascissa i valori dei toni, dal nero albianco, e in ordinata, il numero di pixel di quel tono.Oltre ad un istogramma che riporta il valore di intensità di ogni pixel, cisono istogrammi che, in modo analogo, si riferiscono all’intensità di un pixelin un singolo canale di uno spazio colore.

(34 of 51)

Istogrammi

Essendo una informazione sintetica, un istogramma deve essere interpretatocon giudizio. Un’immagine con uno sviluppo tonale ben distribuito, risulteràin un istogramma come il seguente, quando correttamente esposta

Una concentrazione dell’istogramma a sinistra o a destra, indica unasottoesposizione (prevalenza di toni verso il nero), o una sovraesposizione(prevalenza di toni verso il bianco).

(35 of 51)

Istogrammi

Un istogramma che sia particolarmente concentrato indica un limitato usodel range dinamico

In un canale colore, un istogramma concentrato a destra o a sinistra indicauna (de)saturazione di quel colore, ovvero la potenziale presenza di unapredominanza tonale.

(36 of 51)

Istogrammi

Una avvertenza importante: sebbene gli istogrammi siano uno strumentoestremamente utile, essi richiedono una corretta interpretazione che nonprescinda dal soggetto. Ad esempio

l’istogramma della foto sopra non indica una sovraesposizione, in quanto lafoto è generalmente bianca, ritraendo gli effetti di una nevicata!

(37 of 51)

Filtri

Nella fotografia tradizionale si usano numerosi filtri da applicare all’obiettivo.Essi trovano impiego anche nella fotografia scientifica, ma con enfasidifferenti. In particolare, i filtri a densità neutra, i filtri graduali, ipolarizzatori, e i filtri a infrarosso hanno un utilizzo proprio molto limitato onullo.I filtri utilizzati sono■ i filtri UV (Ultra-Violetto)■ i filtri colorati

(38 of 51)

Filtri UV

Lo scopo primario di un filtro UV è quello di eliminare o ridurre lacomponente ultravioletta dalla luce che dovrà attraversare l’obiettivo.Sebbene questo effetto sia utile, esso ha una influenza estremamentelimitata nella fotografia digitale poiché■ il vetro, di cui le lenti sono fatte, agisce naturalmente da filtro UV■ esiste un filtro UV sul sensore

Di fatto, nella fotografia digitale contemporanea, il principale uso del filtroUV è quello di fare da schermo all’obiettivo, proteggendolo da polvere,sporco ed eventuali contaminazioni che possano depositarsi sulle lenti oentrare nel corpo.

(39 of 51)

Filtri colorati

I filtri colorati vengono applicati ad un obiettivo con due scopi:■ conferire una tonalità dominante precisa all’immagine■ aumentare o diminuire il contrasto tra alcune zone dell’immagine

Mentre il primo utilizzo è ovvio, il secondo prende origine dalla fotografia inbianco e nero. Ad esempio, un filtro blu farà in modo che gli oggetti blusaranno resi con una sfumatura più chiara di grigio, mentre gli oggetti delcolore complementare, il rosso, saranno resi da una tonalità più scura.In generale, in uno scatto monocromatico, un filtro colorato schiarirà i tonidegli oggetti del proprio colore, mentre scurirà i toni degli oggetti di colorecomplementare. Naturalmente, questo effetto è graduale nei canali colore, esi applica anche a foto a colori, con l’aggiunta di una dominante cromatica.

(40 of 51)

LuminositàNei programmi di fotoritocco, la luminosità di un punto è definita come lamedia aritmetica dei valori dei tre canali colore rosso, verde, e blu.Un controllo permette di aumentare o diminuire la luminosità di tutti ipunti, incrementando o decrementando i valori dei tre canali per ogni punto.È importante rilevare come questa trasformazione porti ad una effettiva eirrimediabile perdita di informazione, rendendo completamenti bianchi ipunti molto chiari, o completamente neri i punti molto scuri.

(41 of 51)

Contrasto

Il contrasto è definito come la differenza di luminosità tra due punti.Chiaramente, punti contigui che abbiano un accentuato contrasto sono,solitamente, l’indicazione che l’immagine presenta un bordo in quella zona.Volendo evidenziare le diverse entità presenti nell’immagine quando essepresentano una luminosità differente, i programmi di fotoritocco permettonodi variare il contrasto complessivo, aumentando la luminosità dei punti piùchiari e diminuendo quella dei punti più scuri, proporzionalmente.È, nuovamente, importante sottolineare come la modifica del contrasto portinecessariamente alla perdita di informazione.

(42 of 51)

Bilanciamento dei canali colore

I canali colore sono composti tra loro per conferire un colore ad ogni puntodell’immagine, come già illustrato. Una trasformazione utile inpost-produzione consiste nel modificare il modo in cui questa composizioneviene calcolata.

(43 of 51)

Bilanciamento dei canali colore

Questo tipo di trasformazione è utile quando■ si vuole eliminare o aggiungere una tonalità cromatica complessivaall’immagine

■ si vuole che una specifica parte dell’immagine abbia un colore preciso, adesempio, che la neve sia bianca, oppure il cielo azzurro

■ si vuole isolare o enfatizzare una zona dell’immagine in modo che risultimaggiormente in contrasto con quanto la circonda

(44 of 51)

Istogrammi e curve

Uno strumento più raffinato per la gestione della luminosità, del contrasto, edel bilanciamento dei colori, permette l’applicazione di una curvaall’istogramma di un singolo canale colore o, uniformemente, all’intensità ditutti i punti dell’immagine.

(45 of 51)

Istogrammi e curve

Dato l’istogramma dell’immagine, questo viene interpretato linearmente: alvalore x sull’asse delle ascisse corrisponde il valore x di intensità del pixel, el’ordinata riporta il numero di pixel con quel valore.Graficamente, questo corrisponde a usare la retta f (x)= x come curva deivalori di riferimento: i punti di valore x sono resi graficamente con il valoref (x).Una curva differente modifica questa interpretazione, ad esempio■ una curva a S corrisponde ad una alterazione del contrasto■ una curva monotona che azzeri i valori più bassi o massimizzi i valori piùalti, corrisponderà ad una variazione di luminosità

■ una curva applicata ad un singolo canale colore modificherà in modo piùfine il bilanciamento dei colori

(46 of 51)

Acquisizioni multiple

Scattare più foto di uno stesso soggetto mantenendo costante la posizione èuna tecnica che viene usata per molteplici scopi: ad esempio, aumentare ilrange dinamico delle immagini oltre le capacità del sensore, aumentare laprofondità di campo mantenendo una nitidezza elevata, rendere i dettaglidelle ombre e delle alte luci.Di nostro interesse è mostrare come questa tecnica possa essere usata perridurre in modo significativo il rumore in una immagine.Consideriamo un punto della scena: essa è descritto da una tripla di valoriper ogni scatto che effettuiamo

rosso verde blu1 100 47 2202 102 41 2193 104 42 2184 97 45 2175 95 38 215

(47 of 51)

Acquisizioni multiplePrendendo il valore mediano (100,42,218) oppure il valore medio per ognicomponente (99.6,42.6,217.8), otterremo una tripla che presenta unrapporto segnale/rumore ridotto, ipotizzando il rumore come puramentecasuale e quindi con distribuzione gaussiana.Ad esempio, il seguente scatto è stato effettuato con ISO = 12800,ottenendo un’immagine che presenta molto rumore, come si vededall’ingrandimento

(48 of 51)

Acquisizioni multiple

Andando a sovrapporre cinque acquisizioni esattamente con le stesseimpostazioni della fotocamera secondo il metodo della mediana, si ottiene

(49 of 51)

Acquisizioni multiple

Confrontando gli ingrandimenti, si vede come il rumore sia stato ridotto

(50 of 51)

Riferimenti

■ Elizabeth Allen, Sophie Triantaphillidou, The Manual of Photography,10th edition, Focal Press (2009)

■ Bryan Peterson, Understanding Exposure, 3rd edition, Amphoto Books(2010)

CC© BY:© $\© C© Dr Marco Benini 2015Tutte le foto di cui non sia specificata l’attribuzione,

sono state scattate dall’autore di queste slidese sono protette da copyright.

(51 of 51)