19 Marzo 2024

Fotografia computazionale: ecco perché il tuo iPhone fotografa meglio di una reflex

Introduzione 

Senza l’aiuto della fotografia computazionale, fare belle foto con l’iPhone, e con gli altri smartphone, sarebbe impossibile.

I limiti fisici a cui deve sottostare la fotocamera di un cellulare sono il vero punto debole nella creazione di un’unità fotografica digitale che ambisca a  competere con le reflex o le mirrorless attualmente in commercio.

Con questo articolo voglio aiutarvi a capire quali sono questi limiti fisici e quanto sia stato determinante l’apporto dato dalla Fotografia Computazionale nel superarli.  La prima parte descrive quali sono i limiti fisici insormontabili che impediscono ad un apparato fotografico piccolo come quello montato sugli smartphone di effettuare fotografie di qualità; la seconda illustra le tecniche  di Fotografia Computazionale che vengono utilizzate per sopperire a questi limiti e che fanno sì che le fotografia create con apparecchi che usano la fotografia computazionale possano, in  alcuni tipi di  ripresa, dare risultati migliori delle fotocamere reflex tradizionali.

Il taglio dell’articolo è volutamente divulgativo.

Scopri le offerte di oggi, quelle del reparto elettronica e quelle dello Store ufficiale Apple su Amazon.

Prima parte: i limiti delle fotocamere da smartphone

Limite 1: le dimensioni del sensore

Il sensore di una fotocamera digitale moderna contiene milioni di pixel, gli elementi sensibili alla luce. Il pixel ha alla sua sommità una piccolissima area che viene investita dalla luce che passa attraverso l’obiettivo quando viene aperto l’otturatore. Ancora, sulla sommità di ciascun pixel c’è un filtro rosso, blu o verde, che ne determina il colore. La luce ricevuta da ogni singolo pixel viene tradotta in una corrente elettrica tanto maggiore quanto maggiori saranno le dimensioni dell’area sensibile, l’intensità della luce e il tempo di esposizione.

Il segnale analogico in tensione proveniente dal singolo pixel viene convertito in digitale e processato dal processore di immagini per l’interpretazione dei colori e la successiva conversione nel formato di immagine prescelto. Il sensore ha il cosiddetto rumore di fondo, un insieme di correnti dovute al suo funzionamento che si generano durante il processo di acquisizione dell’immagine. Più  sono basse le correnti provenienti dai pixel, maggiore è la probabilità che vengano confuse con il rumore di fondo portando ad errori in fase di rappresentazione dell’immagine: avete presente le immagini riprese in condizioni di scarsa illuminazione sgranate?

Quindi se per ottenere più corrente in condizioni di luce scarsa servono pixel grandi e se per ottenere immagini ad alta definizione servono molti pixel, milioni, allora il sensore è bene abbia una superficie ampia. Nelle reflex professionali a pieno formato il sensore misura 24X36 mm., negli smartphone in media  7X9 mm. con un numero di elementi sensibili che, in entrambi i casi, varia da 12 a 64 megapixel. Questo significa che nei sensori degli smartphone i pixel sono davvero piccolissimi.

Le piccole dimensioni del sensore e degli elementi sensibili al suo interno provocano anche una considerevole diminuzione della Latitudine di Posa. A volte capita di vedere una scena bellissima, in cui il contrasto tra luce ed ombre genera effetti particolari. Allora tiriamo fuori il nostro smartphone, scattiamo e… il risultato non ha nulla a che vedere con l’immagine che ci aspettavamo. I sensori delle macchine fotografiche sono infinitamente più scarsi della nostra retina. Se esponiamo con un tempo breve per non bruciare le zone in cui le luci sono molto forti, perderemo una moltitudine di particolari nelle zone d’ombra. Viceversa, utilizzando un tempo di esposizione più lungo renderemo bene i particolari nelle zone d’ombra, eliminando sotto una coltre bianca i particolari delle zone bene illuminate. Più piccolo è il sensore, più sono i pixel al suo interno, minore sarà la latitudine di posa della fotocamera.

Limite 2: le dimensioni degli obiettivi 

Osservate un fotografo a bordo campo durante una partita di calcio.  Ha un obiettivo enorme attaccato alla reflex a pieno formato. (Le macchine fotografiche a pieno formato sono quelle in cui il sensore occupa un’area di 24X36 millimetri, che corrisponde ad un singolo fotogramma della pellicola 35 mm, il vecchio rullino).

Quell’obiettivo deve essere grande per fare passare molta luce. Il sensore, per essere in grado di restituire un’immagine bene esposta, deve essere colpito da una determinata quantità di luce riflessa dal soggetto e catturata dall’obiettivo: o molta in un tempo brevissimo o poca in un tempo più lungo. Le foto di sport devono congelare l’attimo ed il fotografo deve stare a debita distanza rispetto al posto in cui si svolge l’azione. Per avvicinare il soggetto avrà bisogno di un teleobiettivo, vale a dire un obiettivo con una focale lunga, diciamo superiore ai 200 mm, in grado di riprendere un angolo molto stretto di visuale. Ora, se l’angolo è molto stretto, la luce che passerà attraverso l’obiettivo sarà poca, mentre se l’angolo è ampio, come ad esempio negli obiettivi grandangolari, ne passerà di più.  Se voglio riprendere Cristiano Ronaldo a figura intera in modo che la sua immagine riempia il fotogramma, avrò a disposizione la poca luce riflessa dal giocatore e dal poco sfondo che sta intorno a lui.  Ciononostante dovrò scattare con un tempo molto breve per congelare l’azione e quindi di tanta luce.  Ecco allora che avrò bisogno di un obiettivo con una lente frontale molto grande così da raccogliere il più possibile la luce proveniente dal soggetto. Nelle fotocamere degli smartphone gli obiettivi sono minuscoli e le lunghezze focali non vanno oltre gli 80 mm. 

Limite 3: l’assenza del diaframma.

Il diaframma è un elemento fondamentale nella fotografia. Attraverso la regolazione del diaframma  è possibile aumentare o diminuire la profondità di campo, vale a dire la distanza davanti e dietro il soggetto in cui tutti gli oggetti si percepiscono a fuoco. In pratica il diaframma è un foro regolabile posto al centro dell’ottica: quanto più è chiuso tanto minore sarà l’influenza dei raggi di luce che penetrano nell’obiettivo attraverso le zone periferiche della lente frontale e tanto più ampia sarà la profondità di campo. Al contrario, con un diaframma aperto al massimo, il contributo dei raggi periferici sarà maggiore e sarà a fuoco soltanto il soggetto messo a fuoco che verrà, quindi, isolato dallo sfondo in modo da essere percepito come il protagonista assoluto della scena. Il rapporto tra la lunghezza focale ed il diametro della lente d’ingresso viene indicato con la lettera “f” e tanto più è minore, tanto maggiore sarà la luce che passa attraverso l’obiettivo. La grandezza f, quindi, indica la  quantità di luce che finirà sul sensore indipendentemente dall’obiettivo usato e e ci permette, conoscendo  la lunghezza focale dell’obiettivo, di determinare, sia pure con le dovute approssimazioni, le dimensioni della lente frontale. Ad esempio, “l’apertura relativa” del diaframma corrispondente a f/4, in un obiettivo con focale 100 mm, ha un diametro che misura nominalmente 25 mm (100/4 = 25), mentre lo stesso valore di f in un obiettivo con focale 600 mm, fa sì che la lente frontale misuri 150 mm, ma in entrambi i casi la quantità di luce verso il sensore sarà la stessa.

Gli effetti dell’apertura del diaframma sulla profondità di campo si sentono molto meno usando gli obiettivi grandangolari, ed è per questo che nelle fotocamere da cellulare, che non avendo il diaframma regolabile scattano a tutta apertura, le sfocature dei piani davanti e dietro al soggetto, se questo non è molto vicino all’obiettivo,  si vedono poco. 

Seconda parte: l’apporto della Fotografia Computazionale.

La fotografia computazionale è quell’insieme di tecniche ed elaborazioni usate in fase di ripresa per sopperire ai limiti fisici delle fotocamere digitali ed all’inesperienza dell’utente che non deve essere per forza un fotografo o un appassionato di fotografia. Anche se usata in molte fotocamere digitali, è sugli smartphone che la fotografia computazionale trova la sua applicazione più convincente in quanto, a fronte di maggiori limiti fisici dovuti alle dimensioni ridottissime delle fotocamere, gli smartphone mettono a disposizione capacità di elaborazione veramente importanti. 

Va detto che la tendenza attuale, per i grandi produttori di fotocamere digitali quali Nikon, Canon e Sony, è produrre modelli più compatti e leggeri usando proprio la fotografia computazionale per renderli comunque competitivi nel mercato consumer e prosumer.

Stacking

La vera fotografia computazionale è iniziata con lo stacking, un metodo per combinare, allineandole ed armonizzandone i livelli,  più foto una sopra l’altra. Per uno smartphone scattare una dozzina di foto in mezzo secondo è molto facile. Non ci sono parti meccaniche che si muovono lentamente, l’apertura è fissa perché manca il diaframma, e c’è un otturatore elettronico al posto della “tendina mobile”. Il processore dice semplicemente al sensore quanti microsecondi dovrebbe catturare la luce e legge il risultato.

La maggior parte delle tecniche di miglioramento dello scatto deriva dallo stacking. La macchina fotografica effettua in rapida sequenza una serie di foto prima e dopo l’effettiva pressione del pulsante di scatto.  Le immagini così ottenute vengono riallineate e processate a seconda del tipo di risultato richiesto implicitamente o esplicitamente dal fotografo. Esistono, quindi, diversi tipi di stacking ognuno destinato a risolvere un particolare problema di ripresa: è combinando queste diverse tecniche che si ottiene un risultato a volte inimmaginabile con le macchine fotografiche tradizionali

Focus stacking

Nella fotografia ravvicinata, ottenere la profondità di campo  necessaria a mettere a fuoco tutto il soggetto, è spesso impossibile. Lo stack di foto, in questo caso, viene scattato variando di volta in volta il piano di messa a fuoco. Le immagini ottenute vengono quindi riallineate e fuse in un un’unica immagine in cui tutto il soggetto è a fuoco, superando di gran lunga il risultato ottenibile da una reflex digitale tradizionale.
La stessa tecnica può essere utilizzata quanto si vuole mettere perfettamente a fuoco i diversi piani di un paesaggio.

Exposure Stacking

Parlando della latitudine di posa abbiamo già visto come sia impossibile ottenere in un unico scatto l’esposizione corretta per le zone in ombra e per quelle molto illuminate. Lo stack di foto, in questo caso, viene formato riprendendo la stessa immagine a livelli di esposizione diversi in modo da esporre correttamente un particolare secondo l’intensità della luce che lo colpisce. Successivamente le immagini vengono allineate e fuse a creare uno scatto con una latitudine di posa ampissima. Questo tipo di stacking è più conosciuto come HDR, acronimo di High Dinamic Range.


Time Stacking

Il Time Stacking è la tecnica che sta alla base delle splendide foto notturne scattate dai moderni smartphone che sembrano scattate  di giorno e che sono realizzate addirittura senza l’uso del cavalletto.

Il Time Stacking funziona in modo abbastanza semplice: una volta che la fotocamera rileva che si sta effettuando una ripresa al buio,  impila una sopra  l’altra, allineandole, una quindicina di foto RAW. In questo modo, l’algoritmo raccoglie più informazioni possibile sulle aree scure dello scatto per ridurre al minimo il rumore  confrontando tra loro i vari scatti per avere informazioni sui pixel che hanno un valore eccessivamente difforme da quelli adiacenti.
Alla fine del processo si ottiene una foto ben esposta e definita che verrà ricolorata in modo naturale con il neural engine.

Motion Stacking 

Uno dei primi utilizzi dello stacking è quello delle foto panoramiche.  Mentre l’utente muove la macchina tra il punto iniziale e quello finale della ripresa, l’otturatore continua a scattare foto che vengono fuse immediatamente dopo il termine della ripresa. I colori vengono armonizzati, i piccoli movimenti di scostamento dall’asse di ripresa vengono corretti, gli elementi in movimento cancellati. Il risultato è una foto che nessun obiettivo grandangolare potrà riprodurre, senza le deformazioni tipiche ai bordi.

Effetto Bokeh

L’effetto Bokeh è quello che si ottiene fotografando un soggetto con un obiettivo a focale medio lunga avendo l’accortezza di mantenere il diaframma aperto al massimo. In questa maniera il soggetto sarà perfettamente a fuoco e si staccherà dallo sfondo che rimarrà sfocato.

Gli smartphone, spesso non possiedono obiettivi medio lunghi, al contrario hanno obiettivi che tendono a focali grandangolari, e, per di più, non sempre dispongono di grandi aperture.   Con questi obiettivi  l’unico modo per ottenere l’effetto Bokeh è avvicinarsi molto al soggetto. Questo, a causa delle deformazioni portate dagli obiettivi grandangolari, porta a delle deformazioni: nei ritratti è tipico il nasone da selfie. 

I moderni smartphone, però, possiedono due obiettivi e creano una visione stereoscopica dell’immagine.  Confrontando i due o più scatti, anche qui lo stacking la fa da padrone, si riesce a capire a quale distanza rispetto al piano del soggetto sta ogni punto.  Immaginate di sovrapporre le due immagini riprese contemporaneamente dai due obiettivi. Più gli oggetti saranno vicini al punto di ripresa, più saranno distanti nella foto sovrapposta, nei piani più lontani quasi si sovrapporranno completamente. È questo particolare che dà al machine learning dello smartphone la possibilità di creare una sfumatura sempre più grande via via che ci si allontana dal piano del soggettoIl miracolo avviene, però anche sugli iPhone dotati di singola fotocamera. Qui il machine learning riesce a capire quando si trova davanti ad un soggetto umano, lo scontorna ed applica la sfocatura dello sfondo. È per questo che, se l’iphone è dotato di una singola fotocamera, lo sfocato potrà essere applicato solo ai ritratti di persone.

Claudio Di Tursi

 

Clicca qui per sapere come fare foto stupende col cellulare anche senza avere l’ultimo modello messo in circolazione.

iPhone 13, 128GB in forte sconto sullo Store ufficiale Apple su Amazon!!!

iPhone 12 dal negozio Apple su Amazon

Offerta del momento: iPhone 11 a 689 €   su Amazon!

SUPPORTA Apple Philosophy

Ti sarai reso conto di quanto siano particolari gli articoli pubblicati su ApplePhilosophy. Non sono le scopiazzature da 9to5mac.com che spesso si trovano su altri siti. Sono il frutto di un lavoro serio di approfondimento che richiede tempo, impegno e passione. Se stai per fare un acquisto su Amazon e desideri supportare Applephilosophy, clicca sul banner qui sotto. Per ogni acquisto il blog riceverà una piccolissima percentuale. Ovviamente NON spenderai un centesimo di più di quanto avresti speso per gli stessi acquisti andando direttamente su Amazon.

4 thoughts on “Fotografia computazionale: ecco perché il tuo iPhone fotografa meglio di una reflex

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *