57
1 Bresson - Corso Fotografico IPSIA GUASTAFERRO - Convitto 2018 Prof. Arnold Mezini Storia della fotografia La foto sgranata è quella che viene considerata la prima fotografia del mondo, Vista dalla finestra a Le Gras, scattata nel 1826 dal francese J.N. Nièpce. Per iniziare ad entrare nel mondo della fotografia penso sia importante guardarsi indietro: iniziamo il nostro percorso da qualche breve appunto di storia, per percorrere i più importanti sviluppi tecnici che hanno portato alla possibilità di scattare una fotografia. Noteremo come dal 1826 la fotografia e le macchine fotografiche non sono cambiate nella loro struttura fondamentale. Con il tempo e la diffusione della fotografia si sono ottenuti materiali ed apparecchi sempre più perfezionati e sofisticati, ma la tecnica di base dei primi fotografi è rimasta inalterata nella sostanza. E anche oggi, con la tecnologia digitale che ha oramai sostituito i materiali sensibili ed i rullini, la sostanza dal punto di vista ottico è rimasta immutata. Insomma, in circa 200 anni non c’è niente di nuovo sotto il sole a livello di principio: di nuovo ci sono gli uomini, la cultura, le abitudini e le conoscenze. Quello che è cambiato nel corso degli anni è il nostro rapporto con le immagini fotografiche.

Storia della fotografia - arnoldmezini.files.wordpress.com · Storia della fotografia La foto sgranata è quella che viene considerata la prima fotografia del mondo, Vista ... Una

Embed Size (px)

Citation preview

1

Bresson - Corso Fotografico

IPSIA GUASTAFERRO - Convitto 2018

Prof. Arnold Mezini

Storia della fotografia

La foto sgranata è quella che viene considerata la prima fotografia del mondo, Vista dalla finestra a Le Gras, scattata nel 1826 dal francese J.N. Nièpce. Per iniziare ad entrare nel mondo della fotografia penso sia importante guardarsi indietro: iniziamo il nostro percorso da qualche breve appunto di storia, per percorrere i più importanti sviluppi tecnici che hanno portato alla possibilità di scattare una fotografia. Noteremo come dal 1826 la fotografia e le macchine fotografiche non sono cambiate nella loro struttura fondamentale. Con il tempo e la diffusione della fotografia si sono ottenuti materiali ed apparecchi sempre più perfezionati e sofisticati, ma la tecnica di base dei primi fotografi è rimasta inalterata nella sostanza. E anche oggi, con la tecnologia digitale che ha oramai sostituito i materiali sensibili ed i rullini, la sostanza dal punto di vista ottico è rimasta immutata. Insomma, in circa 200 anni non c’è niente di nuovo sotto il sole a livello di principio: di nuovo ci sono gli uomini, la cultura, le abitudini e le conoscenze. Quello che è cambiato nel corso degli anni è il nostro rapporto con le immagini fotografiche.

2

La fotografia nasce da tante vicende differenti, dalla combinazione di tanti elementi, che apaprtengono da una parte alla storia della pittura e della cultura dell'immagine, dall'altra alla fisica e all'ottica. Alla nascita e all'evoluzione della fotografia hanno contribuito numerosi ricercatori con geniali intuizioni. I principi ottici e chimici su cui è basato il processo fotografico erano conosciuti anche nell'antichità, ma solamente nel corso del ‘700 e dell’800 sono confluiti in una sintesi che ha permesso di registrare, sviluppare e fissare per la prima volta un'immagine su un supporto. LA CAMERA OSCURA La nascita della fotografia è legata allo sviluppo della strumentazione tecnica: si parte dalla camera oscura: già Aristotele, filosofo greco vissuto ad Atene tra il 384 e il 322 a.C., affermava che realizzando un piccolo foro su una parete di un ambiente oscurato, un pennello luminoso disegna sulla parete opposta l'immagine capovolta dell'ambiente esterno. Si dice poi che gli Arabi verso l'annoi Mille utililizzassero le camere oscure per realizzare dei disegni. Agli anni intorno al 1400 abitualmente si fa risalire non tanto l'invenzione tecnica quanto l'origine di una differente concezione di un certo modo di disegnare lo spazio. Si diffonde un sistema di rappresentazione basato sull'organizzazione geometrica e sullo studio della prospettiva, che vede nella serie di quadri e disegni sulla Città Ideale di Piero della Francesca una delle migliori e più convincenti rappresentazioni. Sembra però che i pittori del '400 non utilizzassero la camera oscura per disegnare, ma che questa sia il risultato di questa nuova impostazione della percezione della realtà.

Negli anni a seguire gli artisti hanno iniziato ad utilizzare delle stanze oscurate nelle quali entravano per ritrarre il paesaggio circostante. Questi strumenti avevano un grosso inconveniente: erano di scarsissima maneggevolezza. Solo verso la seconda metà del XVII secolo fu predisposto un tavolo da disegno portatile secondo il principio della camera oscura: si trattava di una grossa scatola

3

di legno, con il lato anteriore era chiuso da una lente. L'artista ricalcava l'immagine "ripresa" su un foglio di carta semitrasparente, appoggiato a un vetro posto sulla parte superiore. Il risultato era piuttosto impreciso per la cattiva qualità degli obiettivi e richiedeva una discreta abilità per essere riprodotta da un disegnatore. Questa strumentazione ha fatto parte per diversi secoli del corredo di pittori e artisti, sviluppando una storia della rappresentazione della realtà che arriva fino ai giorni nostri. COME FISSARE UN’IMMAGINE II primo passo per fissare l'immagine che veniva riprodotta della scatola oscurata, senza doverla ricalcare a mano, si fece nel 1727 con la dimostrazione sperimentale della sensibilità alla luce del nitrato d'argento rilevata dal tedesco J.H. Schulze. Il merito di aver ottenuto la prima immagine durevole, cioè inalterabile dalla luce, è del francese J.N. Nièpce (1765-1833). Sul dorso di una cassetta di legno con l'interno verniciato in colore nero egli inserì una lastra cosparsa di materiale sensibile alla luce. Nel 1826 Nièpce ha scattato quella che viene considerata la prima fotografia del mondo (la foto di apertura dell'articolo). Niépce chiamò questo processo eliografia: il tempo di esposizione era di circa 8 ore. Solo nel 1839 l'astronomo inglese Herschel propose il termine fotografia, che divenne subito di uso universale.

È stato Louis Daguerre (1787-1851) a perfezionare il procedimento, chiamato dagherrotipo proprio dal nome del suo inventore, arrivando ad ottenere le prime immagini. Si tratta di piccole fotografie impresse su una lastra di metallo sensibilizzata, sulla quale la luce agiva lasciandoil segno del

4

suo passaggio. A sinistra c'è una delle prime fotografie di Daguerre, scatta a Parigi con un tempo di posa relativamente breve: mentre la posa di Nièpce era lunghissima, intorno alle 8 ore, Daguerre riesce ad ottenere l'immagine in pochi minuti, attraverso uno studio approfondito sulle reazioni chimiche, con un risultato molto preciso e definito. Il dagherrotipo ha immediatamente grande fortuna, anche perchè negli anni si riescono a ridurre ancora i tempi di posa. La fotografia si diffonde in tutto il mondo ad una velocità incredibile. Una volta resa pubblica questa scoperta, il ritratto fotografico si diffuse rapidamente, meno costoso di quello commissionato a un pittore e di rapida esecuzione. Per la prima volta l'uomo ha una immagine fedele di se stesso, ancora un pò imprecisa, ma è una delle grandi meraviglie della prima metà dell'800. Purtroppo il dagherrotipo era un esemplare unico, dal quale non era possibile ricavare delle copie. In seguito l'inglese William Talbot (1800-1877) sviluppò ancora il procedimento, mettendo a punto una tecnica che consentiva la stampa di un numero illimitato di copie partendo da un unico negativo e garantendo una maggior definizione dei dettagli nelle fotografie. La fotografia nei primi anni di sua reale dissusione è come una persona che comincia a vedere per la prima volta: e da subito si sviluppano due filoni precisi. Il primo filone rivela uno sguardo nuovo, di meraviglia nei confronti del mondo, del paesaggio, dell'architettura, del mondo nella sua complessità e bellezza. La fotografia parte alla scoperta dell'Oriente, della Cina, del Giappone: mondi lontani che iniziano ad essere conosciuti senza dover essere esploratori. Per gli americani poi la macchina fotografica diventa sopratutto uno strumento per appropriarsi del territorio. L'America non ha una lunga storia alle spalle e in assenza di una tradizione i fotografi inizino per primi a scrivere la storia dell'America. Insomma, la fotografia inizia ad essere un modo di aprire gli occhi sul mondo. Il secondo filone tende alla creazione di uno sterminato catalogo e di un nuovo modo di vedere l'umanità: il grande mito di rivedersi e di riscrivere la propria storia personale, anche attraverso le immagini, attraverso gli album di famiglia che si diffondono subito dopo la scoperta della fotografia. L’EVOLUZIONE DELLE FOTOCAMERE La grande diffusione successiva della fotografia è legata allo sviluppo delle fotocamere. Una delle evoluzioni più importanti delle macchine fotografiche ha riguardato il formato del fotogramma. II fotografo dell’800 doveva portare con sé un'attrezzatura di peso considerevole: oltre alla macchina fotografica e al cavalletto, aveva bisogno di un intero laboratorio fotografico mobile, sotto forma di tenda o carrozza oscura-bile. Era indispensabile possedere nozioni di chimica e ottica, una grandissima abilità manuale, per preparare sul posto le lastre, sensibilizzarle e, dopo l'e-sposizione, svilupparle e fissarle. Con il tempo, attraverso la ricerca sulle emulsioni, migliorate nella resa dei dettagli, e con gli obiettivi sempre più evoluti, è stato possibile ridurre il formato del negativo da cui trarre l’ingrandimento.

5

Nel 1884 l'americano George Eastman fabbricò le prime pellicole in rullini da 24 pose. Nel 1888 lanciò sul mercato un nuovo rivoluzionario apparecchio di piccole dimensioni (solo 18 cm di lunghezza), che conteneva un caricatore da 100 pose. Dotato di fuoco fisso e di una velocità di otturazione vicina a 1/25 di secondo, dopo l'ultimo scatto doveva essere rimandata alla casa produttrice che sviluppava le 100 foto e ricaricava la macchina con un altro rullino. Costava 25 dollari e veniva reclamizzato con lo slogan «Voi premete il bottone, noi faremo il resto». Venne chiamato con un termine onomatopeico divenuto famoso nella storia della fotografia: Kodak. Eastman introdusse nel 1891 le prime pellicole intercambiabili a luce diurna. Dalle pellicole su carta passò poi nel 1889 alle pellicole su celluloide. Nel 1904 Auguste e Louis-Jean Lumière (pionieri della cinematografia) brevettarono un fortunato procedimento di fotografia a colori.

6

Nel 1923 venne immessa sul mercato una nuova macchina fotografica, leggera e versatile: la Leica progettata da Oscar Barnack. Questa fotocamera è davvero importante perché ha segnato l’ingresso del formato 35mm nella fotografia: 35mm indica la larghezza della pellicola, mentre 24x36mm indica il formato del fotogramma impressionato (per cui sui 35mm della pellicola per fotografie ci devono stare "solo" i 24mm del lato corto del fotogramma). Il formato 35mm ha consentito di costruire macchine leggere, di piccole dimensioni e relativamente economiche, permettendo di ottenere immagini di qualità adeguata alla gran parte delle applicazioni. La leggerezza ne ha fatto l'attrezzatura d'elezione per il fotogiornalismo, la foto sportiva e di viaggio. Negli anni a seguire assistiamo allo sviluppo della tecnologia reflex. L’uso di uno specchio per raddrizzare l’immagine che passa attraverso la lente della camera oscura, di cui come abbiamo visto artisti e pittori si servivano come ausilio al disegno dal vero era noto da tempo, ma nel 1936 approdò al 35mm con la Kine Exacta. Il modello reflex 35mm si è imposto negli anni, soprattutto con il boom della fotografia degli anni Sessanta e la capacità costruttiva dell’industria giapponese. La forza dei modelli reflex sta tutta nel mirino: con altri tipi, ad esempio a telemetro, il campo visivo non corrisponde a quello visualizzato attraverso l’obiettivo, specialmente alle brevi distanze. Il sistema di visione reflex non si limita a facilitare l’inquadratura e la messa a fuoco, ma permette di studiare e perfezionare la composizione nel modo migliore, dato che dal mirino si può osservare quello visto dall’obiettivo al momento della ripresa. Da allora il sistema si è sviluppato enormemente, ma il concetto è rimasto immutato anche nelle più recenti versioni digitali.

7

IL PROGRESSO TECNOLOGICO Nel corso degli anni del secolo scorso assistiamo ad un notevole sviluppo tecnologico della strumentazione fotografica. Miglioramenti delle prestazioni degli obiettivi si ebbero dal 1903 con gli obiettivi prodotti dalla Zeiss. Molti progressi ci furono nell'ambito del sistema reflex. La prima macchina reflex binoculare, con un obiettivo per la ripresa, uno per l'inquadratura e la messa a fuoco venne realizzata nel 1865 da H. Cook. Alcuni ricercatori si dedicarono a sperimentazioni sulla fotografia istantanea, ossia sviluppare la pellicola all'interno dell'apparecchio fotografico, anziché nella camera oscura: La fotografia istantanea divenne realtà nel 1947 grazie al chimico Edwin Herbert Land, inventore del sistema Polaroid.

Nel 1981 il fondatore della Sony sconvolse il mondo con l’annuncio della Mavica (magnetic video camera), una reflex che consentiva di registrare su un floppy disc immagini a colori che potevano essere stampate, trasmesse via telefono o riprodotte su uno schermo tv. La Mavica anticipò di 20 anni i tempi, anche se già nel 1976 la Kodak disponeva di un prototipo digitale che tenne segreto per anni: fotografava senza pellicola e la Kodak era il più grande produttore di pellicole.

8

La prima reflex professionale fu introdotta nel 1991 da Kodak su telaio Nikon F3, con un sensore da 1.3 megapixel ed un costo esorbitante. Nel giro di pochi anni però i sensori digitali hanno iniziato a fare passi da gigante: già con quelli da 3 MP si è cominciato a parlare di qualità digitale. E così si è arrivati ai giorni nostri dove l’utilizzo della pellicola è praticamente scomparso, almeno se consideriamo la diffusione “popolare” della fotografia e il binomio fotografia – digitale è in pieno sviluppo e perfezionamento.

9

Macchina fotografica Parliamo di Reflex D-SLR. La sigla SLR è l'acronimo di Single Lens Reflex (Reflex a Singola Lente), ossia si tratta di una fotocamera che utilizza la stessa lente sia per inquadrare che per scattare; la lettera D (Digital) della sigla si riferisce al fatto che la luce è impressa su un sensore digitale e le immagini risultanti sono immagazzinate in una scheda di memoria.

1. Obiettivo - E' l'elemento che permette il passaggio della luce all'interno del corpo della fotocamera: è formato da una o più lenti che “trasmettono” l’immagine reale di un soggetto inquadrato sul piano focale (7). Il piano focale è il piano posto ad una distanza per la quale un obiettivo forma un’immagine nitida: qui si trova l'elemento (pellicola o sensore) in grado di registrare un’immagine perfettamente definita

10

2. e 3. Specchio - E' l'elemento mobile che permette di inquadrare nel mirino l’immagine vista dall’obiettivo. Normalmente lo specchio è inclinato di 45° (2), proprio per riflettere verso l'alto la luce che attraversa l'obiettivo: quando si preme il pulsante di scatto lo specchio si solleva in alto (3) in modo da scoprire l'elemento "sensibile", ossia il sensore digitale, sul quale i raggi di luce incidenti formeranno l'immagine. 4. Pentaprisma – E’ il sistema ottico in grado di invertire la destra con la sinistra (e

viceversa) nell’immagine riflessa dallo specchio reflex: in questo modo, attraverso il mirino è possibile osservare un’immagine reale e non capovolta del soggetto inquadrato. Per motivi economici molte fotocamere utilizzano al posto del pentaprisma un sistema di cinque specchi, detto appunto pentaspecchio: costa meno, pesa meno, ma restituisce all’occhio un’inquadratura meno luminosa, rendendo in alcuni casi più difficoltosa la messa a fuoco manuale, in particolare quando si scatta con poca luce. Non influisce tuttavia, in alcun modo, sulla qualità delle immagini.

11

5. Mirino - E' il dispositivo che permette di scegliere e comporre l'inquadratura. All'interno del mirino, oltre alla visualizzazione della scena inquadrata, ci sono gli indicatori per valutare la messa a fuoco e l'esposizione del soggetto. Il grande vantaggio del mirino reflex sta nella possibilità di inquadrare la scena attraverso l'obiettivo stesso, potendo vedere quindi esattamente l'immagine che si formerà sul sensore. La copertura del mirino è un fattore importante per la composizione dell’immagine: nelle fotocamere professionali il mirino permette una visione completa della scena inquadrata, mentre nei prodotti più economici ne viene reso visibile solo il 90-95%. A differenza delle compatte digitali le reflex digitali non possono utilizzare il monitor LCD sul dorso per inquadrare la scena, per il semplice motivo che il sensore è coperto dallo specchio; in realtà si è riusciti ad aggirare l'ostacolo con il cosiddetto live view (la funzione consente di vedere la scena in tempo reale sullo schermo LCD della fotocamera). Con lo sviluppo della fotografia digitale è nato anche un tipo di mirino elettronico e sono diventati possibili sistemi non reflex e senza specchio.

6. Otturatore - E' il dispositivo che permette di fare arrivare luce al sensore quando

12

si preme il pulsante di scatto. L'otturatore può essere di due tipi: centrale e a tendina. Nell'otturatore centrale si ha una serie di lamelle mobili poste tra le lenti dell'obiettivo; esse stanno normalmente chiuse e solo al momento dello scatto si aprono per il tempo prestabilito. Nell'otturatore a tendina, invece, abbiamo due tendine poste vicino al sensore: quando si scatta la foto, esse formano una fessura che scorre su tutto il sensore, esponendolo alla luce.

7. Sensore - E' l'elemento della fotocamera esposto alla luce: si tratta di un componente elettronico che cattura le immagini e le "traduce" in dati per essere immagazzinati nella scheda di memoria. Il funzionamento è piuttosto complesso: lo vedremo in un prossimo articolo.

13

8. Diaframma - E' l'elemento interno all'obiettivo attraverso il quale passa la luce che entra nella fotocamera prima di raggiungere il sensore. E' costituito da un insieme di lamelle che vanno a formare un piccolo foro di ampiezza variabile, permettendo di dosare la quantità di luce.

9. Percorso della luce - Dopo aver conosciuto le parti essenziali sopra descritte, si può comprendere con maggior chiarezza come una scena inquadrata possa diventare una fotografia. Seguiamo la linea verde della figura in alto: i raggi luminosi sono raccolti e passano attraverso l'obiettivo (con diaframma tutto aperto) e arrivano allo specchio che, inclinato a 45°, li riflette verso il pentaprisma che, a sua volta, li "raddrizza" e li invia al mirino, dove inquadriamo la scena. Quando premiamo il pulsante di scatto il diaframma nell'obiettivo si chiude al diametro da noi voluto, lo specchio si alza, l'otturatore si apre per il tempo da noi stabilito e i raggi luminosi si vanno a depositare sul sensore. Sul sensore si formerà l'immagine, che sarà immagazzinata poi come dati digitali nella scheda di memoria...ed ecco qua la nostra fotografia.

14

Pulsante di scatto - Il pulsante di scatto aziona l’otturatore ed il diaframma: una prima leggera pressione del pulsante permette la messa a fuoco e la lettura dell’esposizione all’interno del mirino. Messa a fuoco/Schermo di messa a fuoco - Sul sensore si forma l’immagine degli oggetti che si trovano davanti all’obiettivo. In linea generale, una fotografia viene considerata tecnicamente ben riuscita quando è dotata di nitidezza, ossia quando è perfettamente a fuoco: l’immagine risulta nitida solo quando la distanza tra l’obiettivo ed il piano focale è corretta. La messa a fuoco può avvenire ruotando l’apposita ghiera sull’obiettivo, che provoca il movimento delle lenti fino al raggiungimento della nitidezza ottimale. Tutte le fotocamere sono poi dotate di autofocus, con messa a fuoco automatica: sarà il motore interno elettrico, incorporato nella macchina o nell’obiettivo, ad effettuare tutte le operazioni. Uno schermo di messa a fuoco è formato da materiale traslucido, solitamente vetro smerigliato, che ci permette di visualizzare in anteprima l'immagine inquadrata in un mirino. Uno schermo di messa a fuoco ha incisi dei segni che, variando da modello a modello, forniscono un aiuto per la messa a fuoco manuale o per gli allineamenti della composizione. Esposimetro - Nelle reflex l'esposimetro è TTL (acronimo di through the lens, "attraverso l'obiettivo"), cioè legge e misura la luce che attraversa le lenti del sistema ottico e va a cadere sulla superficie sensibile.

15

Selettore della sensibilità (ISO) - Permette di impostare la velocità ISO (sensibilità alla luce del sensore) in base al livello di luminosità dell’ambiente. Selettore della compensazione dell’esposizione - La compensazione dell’esposizione può aumentare (più luminosa) o diminuire (più scura) l’esposizione standard impostata dalla fotocamera. Flash - La maggior parte delle reflex sono dotate di un piccolo flash incorporato. C’è la possibilità di aggiungere un flash esterno, molto più potente e funzionale, alloggiandolo nell’apposita slitta. Controllo della nitidezza - La profondità di campo è la distanza tra i soggetti più vicini e quelli più lontani dalla fotocamera entro la quale l’immagine appare nitida. La visione attraverso il mirino è a diaframma tutto aperto: premendo questo pulsante il diaframma si chiude al valore impostato e permette di verificare la nitidezza dei vari oggetti posti a piani diversi. Scheda di memoria - E’ l’elemento che permette di memorizzare le immagini, ossia i dati digitali che provengono dal sensore colpito dalla luce dove si è formata l’immagine.

16

sensori I sensori digitali sono le componenti elettroniche che catturano le immagini e le traducono in dati per essere immagazzinate nella scheda di memoria: costituiscono quindi l’elemento fotosensibile delle fotocamere ed hanno oramai soppiantato i vari tipi di pellicola, almeno nell'utilizzo più diffuso. Di seguito descriviamo cosa sono questi elementi: si entra in un campo prettamente tecnologico. Per scattare fotografie in modo consapevole non è essenziale conoscerne il funzionamento: anche se la comprensione di come si formino oggi le immagini attraverso l’elettronica può essere utile ed interessante. Riporto alcuni concetti base. Quando si parla di sensore, si associa subito il valore della risoluzione delle immagini, ossia la capacità di rendere i dettagli: dato che l’immagine è registrata dal sensore, parliamo della sua risoluzione totale, che si misura in milioni di pixel totali (i cosiddetti megapixel o MP). Per comprendere i fattori che determinano la qualità delle immagini occorre introdurre il concetto di fotosito che è la parte unitaria del sensore (appartiene alla categoria hardware). Il pixel rappresenta un gruppo di dati che descrive le caratteristiche cromatiche del più piccolo dettaglio dell'immagine (appartiene alla categoria software). I sensori si dividono in due categorie: CCD (Charge-Coupled Device, dispositivo ad accoppiamento di carica) e CMOS (Complementary Metal Oxide Semiconductor). I processi di fabbricazione dei due sensori sono differenti, così come lo è la disposizione dei circuiti su di essi: si tratta sempre di piastrine piene di fotositi che raccolgono e convolgiano la luce. La luce che colpisce il sensore viene immagazzinata in ogni fotosito come carica elettrica. Da ogni fotone si sviluppa un elettrone, che genera tensione elettrica. La carica elettrica è poi convertita per mezzo di un convertitore analogico – digitale (ADC), in dati digitali. I sensori non hanno alcuna comprensione dei colori della realtà: reagiscono ai fotoni che li investono e loro liberano elettroni, senza essere assolutamente sensibili al colore della luce percepita. Per ottenere il colore viene posto davanti al sensore un filtro a mosaico, con un motivo rosso, verde e blu: in figura si riporta lo schema del filtro di Bayer, il più diffuso.

17

Il filtro di Bayer è formato da una matrice di punti colorati della stessa dimensione del sensore e con una disposizione ben precisa. Il rapporto sono 2 punti verdi per 1 punto o rosso o blu, perché l’occhio umano è più sensibile al colore verde: è proprio in quella zona dello spettro visibile che riusciamo a riconoscere un numero maggiore di dettagli e di sfumature. Quindi la luce attraversa il filtro, colpisce il sensore ed esso registra il valore di luminosità di un solo colore: se levassimo il filtro di Bayer il nostro sensore registrerebbe immagini in bianco e nero.

18

Per ricostruire tutti i valori RGB (rosso, verde e blu) entra in gioco la demosaicizzazione: un algoritmo che consente di ricostruire, grazie a tecniche di interpolazione, tutti i colori dell’immagine partendo dai dati forniti dal sensore. L’interpolazione bilineare consente di rilevare i valori mancati di canali in un punto, partendo dai punti adiacenti: se nel punto Blu mancano i valori Rosso e Verdi, questi vengono calcolati dai punti adiacenti Rossi e Verdi, attraverso l'interpolazione software dei punti a colori mancanti (e sfruttando quanto più possibile il fatto che i pixel verdi sono in quantità doppia rispetto a quelli rossi e blu). Una delle cose da tenere a mente è che i sensori rispondono alla luce in maniera lineare. Ovvero restituiscono una carica elettrica direttamente proporzionale alla quantità di luce ricevuta: graficamente corrisponde ad una linea retta. Il problema è che il sistema visivo umano è molto più avanzato e “accomodante”: non vediamo sparire improvvisamente le alte luci o le ombre profonde. La nostra risposta, e quella delle pellicole, non è lineare e questo ci permette di vedere i dettagli in una gamma tonale più ampia rispetto a quella del sensore digitale. Tra l’acquisizione dei dati di un’immagine e il suo immagazzinamento nella scheda di memoria ci sono altri passaggi: ogni produttore usa una particolare tecnologia, finalizzata a correggere gli errori di acquisizione dati ed ottenere il miglior risultato possibile. Un approfondimento sulla tecnologia dei sensori nell'articolo Sensori CCD e CMOS.

19

Nei CCD la carica elettrica immagazzinata dai singoli fotodiodi viene trasferita, accumulandosi man mano lungo le file di fotodiodi, fino ai bordi del sensore, dove poi viene amplificata ed infine convertita in un segnale digitale (da un apposito ADC, Analog-to-Digital Converter). In pratica la carica elettrica viene letta una riga alla volta, e poi il parziale (di ogni riga) viene riportato alla riga successiva e così via, in sequenza, fino a coprire l’intero sensore. In un sensore CCD, dunque, viene trasportata della carica elettrica.

I sensori fabbricati con un processo di tipo CMOS, invece, lavorano diversamente: ogni fotodiodo dispone di un amplificatore e di un convertitore e quindi la carica elettrica accumulata viene convertita in differenza di potenziale, il cui trasporto richiede molta meno energia. Il consumo energetico è di 1/100 rispetto al quello necessario ad un CCD.

20

I CCD sono prodotti con processi industriali più complessi rispetto ai CMOS e mostrano una migliore sensibilità alle luci basse, mentre in presenza di luci alte tendono a generare artefatti. I CCD generano comunque meno disturbi (rumore) rispetto ai CMOS. I CMOS, dal momento che la tecnologia richiesta è più semplice, sono più economici: le versioni più recenti si avvicinano alle prestazioni dei CCD e consentono di essere maggiormente miniaturizzati. Perché allora ci sono ancora in giro dei CCD? perché i sensori destinati alle fotocamere professionali a medio formato sono sempre e solo CCD? La risposta è: la qualità d’immagine. I sensori CCD hanno le potenzialità per offrire una maggiore gamma dinamica, meno rumore e maggiore sensibilità. Non che i CMOS non vadano bene: ad oggi ad esempio tutte le reflexprodotte dalla Canon, anche quelle professionali, montano sensori CMOS. In generale i sensori CMOS hanno due limiti: il rumore e la sensibilità. Poiché c’è un amplificatore per ogni fotodiodo,basta una minima disuniformità nel funzionamento di uno o più di questi amplificatori per generare pixel irregolari e/o disturbati: di qui la maggiore tendenza al rumore, per minimizzare la quale naturalmente esistono vari sistemi sui quali non ci dilunghiamo. Inoltre, proprio la maggiore presenza di circuiti sul sensore genera più rumore rispetto ad un CCD (il disturbo - rumore accompagna sempre ogni componente elettronico). Quanto alla sensibilità, sempre perché i sensori CMOS ospitano più circuiti (rispetto ai CCD), ne deriva che una parte della loro superficie non è destinata alla raccolta di luce, ma appunto ad ospitare tali circuiti; a questo si può ovviare adottando delle microlenti e naturalmente il miglioramento dei processi produttivi consente di fabbricare circuiteria sempre più piccola (e quindi di sprecare meno spazio sul sensore). Insomma, la verità è che non esiste una tecnologia intrinsecamente superiore all’altra, perché il risultato finale dipende da come questa viene sviluppata. formati dei sensori Le fotocamere digitali reflex, a seconda della loro marca, fascia di prezzo, target di mercato, possono montare sensori digitali molto differenti. Eccone alcune tipologie nella figura in basso, che si distinguono per le loro dimensioni.

21

Le varie tipologie di sensore si possono raggruppare in: - full-frame (a pieno formato), di dimensione 24 x 36 mm, equivalente al classico formato della pellicola 35mm. - formato ridotto, di dimensioni minori rispetto al full frame: ad esempio i CMOS della Canon APS-H (dimensione circa 19 x 29 mm, pari al 63% del full frame, con fattore di moltiplicazione 1.3) e APS-C (dimensione circa 15 x 23 mm, pari al 38% del full frame, con fattore di moltiplicazione 1.6). Il fattore di moltiplicazione dei sensori più piccoli rispetto al full frame è noto come crop factor. La dimensione del sensore determina la dimensione dell'immagine registrata. Una medesima scena viene registrata dai tre tipi di sensore sopra ricordati secondo i tagli riportati nella figura in basso.

22

Questo fa si che il sensore catturi solo parte dell'immagine realmente fornita dall'obiettivo, dando così la sensazione che la focale si allunghi di un certo valore (per 1.3 nel caso dell’APS-H o 1.6 nel caso dell’APS-C). In realtà, la focale reale non cambia di un solo mm. Avviene piuttosto quello che accadrebbe se dopo aver stampato un fotogramma da un negativo 35mm, si "tagliasse" il negativo al centro si effettuasse una seconda stampa, con le stesse dimensioni della prima; ovviamente apparirebbe come fatta da un obiettivo più lungo:

23

Gli obiettivi riportano sempre la focale reale, che va quindi moltiplicata per il fattore di crop, in caso di sensore di dimensioni minori a quello full frame.

24

Introduciamo la composizione fotografica, tema fondamentale per l'espressione del linguaggio fotografico, ricordando una frase di Edward Weston: “Una buona composizione è la maniera più forte di vedere le cose”. Osservare una fotografia che abbiamo scattato o che ci riguarda direttamente può suscitare in noi ricordi ed emozioni: non è altrettanto semplice ed immediato raccontare le stesse sensazioni le stesse emozioni ad altre persone che osserveranno la foto.

Ogni immagine porta con sé la propria personale interpretazione della parte di realtà inquadrata, ma non c’è una voce narrante che la descrive o un testo allegato che la spiega. La forma di comunicazione è visiva: per raccontare una storia gli elementi presenti nell’inquadratura, e le loro relazioni, dovranno svolgere un ruolo ben preciso per veicolare al meglio il messaggio che vogliamo raccontare. Tutto questo è la composizione fotografica: e con questo termine intendiamo tutte le decisioni prese dal fotografo, al momento dello scatto, riguardo alla scelta del soggetto da rappresentare e alle sue relazioni con l'ambiente circostante, ordinando tutti i possibili elementi. La composizione può apparire un concetto poco chiaro: proviamo a comprendere alcune regole, che possono fornirci un valido supporto per finalizzare il nostro intento narrativo. Ci sono infatti criteri di composizione oggettivi, che non dipendono dai gusti individuali: ad esempio una zona nitida a fuoco indica un centro di interesse e richiama l’attenzione dell'osservatore. Esistono insomma regole di composizione considerate normali o corrette, da non considerare però fisse ed immutabili, sicure come una formula matematica che se

25

correttamente applicata porta ad un giusto risultato: tutt’altro. Il fotografo potrà applicarle o meno, ma sicuramente non potrà non conoscerle. La composizione di una foto può avvenire in due modi, uno razionale ed uno istintivo. Nel primo caso il fotografo organizza la sua ripresa in funzione di un risultato che ha ben chiaro in mente e che intende perseguire nei modi più opportuni. Nel secondo caso esiste un coinvolgimento più emotivo con il soggetto o con l’ambiente, per il quale gli schemi logici vengono sostituiti da schemi emotivi e grazie ai quali si possono realizzare splendide immagini che non rispondono a nessuna regola: prospettive improbabili, scene di mosso, inquadrature sfuocate, primi piani esagerati, orizzonti inclinati, tagli violenti…in questi casi ci si libera dalle regole della tecnica e della composizione, ma lo si può fare se queste regole sono conosciute ed assimilate. Di certo le evasioni espressive debbono mostrare una forza tale da dimostrare che non siano frutto di errori, bensì ispirate e volute. Organizzare gli elementi che ci circondano in un rettangolo o in un quadrato, in modo razionale o irrazionale, ma comunque espressivo: questa è la composizione. Il fotografo deve essere in grado di sfruttare le sue conoscenze tecniche e compositive come uno strumento per raggiungere un equilibrio, che non dovrà necessariamente rispondere a leggi scritte, ma sollecitare la capacità visiva e critica di chi osserverà l’immagine finale. La composizione richiede rigore estetico e libertà creativa: e la creatività va coltivata scattando molte fotografie, ma anche attraverso la lettura e la visione di moltissime foto, soprattutto dei grandi maestri. La composizione fotografica insomma è un processo che prende in considerazione simultaneamente tutti i diversi aspetti della futura immagine (inquadratura, prospettiva, luce, movimento, posizione del soggetto) perché essi sono indissolubilmente legati l’uno all’altro e un cambiamento di uno determina un cambiamento anche negli altri nell'immagine finale. Il campo è lo spazio abbracciato dall'obiettivo: lungo quando il soggetto principale è molto lontano rispetto al punto di ripresa, medio quando il soggetto principale occupa circa metà dell'altezza del fotogramma ed è situato vicino alla fotocamera. Lo spazio viene diviso in piani di profondità in relazione alla distanza del soggetto principale. L'immagine è generalmente composta da un primo piano, un secondo piano e uno sfondo. Cambiando obiettivo o angolo di ripresa si privilegia un piano rispetto a un altro.

26

LA POSIZIONE DEL SOGGETTO In ogni composizione bisogna decidere dove posizionare il soggetto: e se questo non occupa l’intera inquadratura, bisogna far attenzione alle proporzioni dello spazio che lo circonda. La posizione del soggetto è tanto più importante quanto minori sono le sue dimensioni. Un piccolo decentramento di solito stabilisce una relazione tra il soggetto e lo sfondo. Una inquadratura perfettamente centrata è stabile, statica: spostandolo anche di poco lo si lega meglio al contesto. In linea di massima, quando il contesto è significativo e aiuta a comprendere la foto, vale la pena tentare una composizione in cui il soggetto occupi una piccola parte dell’inquadratura. I semplici esempi in basso rappresentano uno stesso soggetto, le canne da pesca, in diverse posizioni: e i risultati sono diversi.

LA PROSPETTIVA La prospettiva rappresenta il modo in cui gli oggetti appaiono nello spazio e interagiscono tra loro e con l’osservatore: in fotografia definisce quindi il grado di profondità di una immagine. Il senso di profondità dato da una forte prospettiva rafforza nell’osservatore l’impressione di trovarsi davanti ad una scena reale, dando così più importanza all’aspetto realistico del soggetto e meno alla struttura grafica astratta. Ecco i tipi di prospettiva che influenzano proprio l’illusione di profondità. Lineare. Caratterizzata dalla presenza di linee convergenti che, nella maggior parte dei casi, sono linee parallele, come i bordi di una strada, che tendono a convergere verso uno o più punti. A causa del fenomeno della convergenza tutte o quasi le linee diventano diagonali che portano con sé tensione e senso del movimento. Il grado di convergenza è inversamente proporzionale all’altezza del punto di vista.

27

28

29

Gli obiettivi in base alla focale cambiano la prospettiva lineare In particolare il grandangolo mostra in primo piano un maggior numero di diagonali, ossia accentua la prospettiva lineare; i teleobiettivi al contrario tendono ad appiattirla. Aerea. Particolari condizioni atmosferiche (foschia, fumo, oscurità) comunicano una sensazione di profondità poiché i colori e le tonalità dell'immagine si affievoli-scono gradatamente in relazione alla distanza. Accentuano la prospettiva aerea anche i vari passaggi cromatici fra i piani.

COMPOSIZIONE STATICA E’ quasi indispensabile se un fotografo vuole evocare sensazioni di quiete, pace, stabilità. Questo accade quando: - il soggetto è al centro - le linee sono convergenti verso il centro - le linee orizzontali o verticali non sono deformate - gli oggetti e le persone sono visti di fronte - le linee architettoniche non sono convergenti L’immagine è simmetrica: la simmetria rappresenta un grado particolarmente

30

elevato di ordine; in termini estetici l’effetto sull’osservatore va dall’impressione di perfezione formale alla monotonia e quindi è un valido mezzo compositivo.Una composizione centrale può essere molto efficace nei casi in cui il soggetto ha una forma completa e autosufficiente: se non è così "forte" meglio allora spostarlo il qualche altra posizione del fotogramma. COMPOSIZIONE DINAMICA E’ quasi indispensabile quando un fotografo vuole evocare sensazioni di azione, movimento, velocità, vita, drammaticità, forti emozioni, precarietà. Questo accade quando: - il soggetto è situato presso uno dei bordi, anziché al centro - l’immagine è asimmetrica - prevalgono linee inclinate o diagonali le linee verticali sono convergenti Tipici esempi di composizione dinamica sono le riprese dall’alto, dal basso, le immagini distorte di soggetti architettonici in cui le linee verticali convergono, le immagini in cui i soggetti in movimento sono mossi. Fotografare un’azione: ad esempio l’immagine di una persona che cammina indica di per sé una direzione ed uno spostamento. Questo vale per qualsiasi oggetto in moto. Poiché le immagini sono statiche, anche la direzione verso cui il soggetto è rivolto suggerisce un’idea di movimento.

31

Bresson - Corso Fotografico

IPSIA GUASTAFERRO - Convitto 2018

Prof. Arnold Mezini

32

Henri Cartier-Bresson (22 agosto 1908 – 3 agosto 2004)

“Le tue prime 10.000 fotografie sono le peggiori”

Maestro del Candid photography aka Street photography (fotografia di strada), è un genere fotografico che vuole riprendere i soggetti in

situazioni reali e spontanee in luoghi pubblici al fine di evidenziare aspetti della società nella vita di tutti i giorni.

Il termine “strada” si riferisce infatti ad un luogo generico ove sia visibile l'attività umana, un luogo da osservare per catturarne le interazioni sociali.

33

Soggetto in movimento

34

Priva di “mise en scène”

35

Sorprendere il soggetto

36

37

38

Senza distrare il soggetto

39

Fotografare è in parte cogliere l’attimo, in parte seguire l’istinto, ma anche esprimere le proprie idee, quelle più profonde e complesse. E, quando riuscirete nell’impresa, allora sarete sulla giusta strada.

40

41

trieste 1933

42

funerale di Gandhi

cosa vogliamo esprimere? – Lo scopo. Raccontare una storia:

43

documentare una situazione:

44

seguire l’evoluzione o crescita:

45

mostrare la peculiarità di un posto:

46

47

48

49

Scopo: voglio documentare (e di conseguenza denunciare) gli aspetti che un po’ mi fanno “vergognare” della mia città. Mi piace la mia città, ci

sono tanti aspetti positivi, ma sembra che vengano trascurate certe cose:

Cosa voglio fare: una volta terminato il progetto voglio realizzare un

foto-libro ed organizzare alcune mostre dove propongo il mio libro (quindi creando anche una sorta di autofinanziamento al progetto stesso). Le foto saranno in bianco e nero.

Step/cose che devo fare:

conosco bene o male già le zone più degradate della mia città,

ma è necessario fare dei sopralluoghi per capire se possono rientrare in

questo progetto o meno.

Altri quartieri non li conosco quindi è necessario che ci faccia un giro.

Avevo degli amici/conoscenti che abitano (o abitavano) in alcune delle zone che ritengo disagiate, potrei provare a contattarli per vedere se

50

riescono a raccontarmi qualcosa di più, capire se la situazione sta peggiorando o migliorando e capire anche come affrontano la cosa gli

abitanti.

Programmazione (la programmazione è un vero e proprio calendario

delle azioni che devi fare dal lato pratico.

È fondamentale che la programmazione sia prima di tutto REALISTICA, ovvero che tu sia in grado di rispettarla, e successivamente devi IMPEGNARTI A RISPETTARLA altrimenti perdi il filo logico e determinazione per terminare il progetto):

Elaborazione: fare una cernita delle immagini realizzate scegliendo quelle più consone al progetto e collegate tra loro secondo il fine logico

del tema del progetto che mi sono preposto di elaborare, esempio (scatti 100 – elimini 95)

Lo stile di sviluppo delle immagini deve essere un bianco e nero con un forte contrasto tra le luci e le ombre ma allo stesso modo fare in modo

51

che i neri e bianchi non siano assoluti (ovvero smorzando un po’ l’intensità dei neri e i bianchi).

PH: Arnold Mezini

52

53

54

PH: Arnold Mezini

PH: Arnold Mezini

55

56

PH: Arnold Mezini

57

PH: Arnold Mezini