Notizie

Apple parla della progettazione della fotocamere per iPhone

Invece di concentrarsi su qualsiasi aspetto hardware della fotografia di iPhone, gli ingegneri ed i manager di Apple mirano a controllare il modo in cui l'azienda gestisce ogni fase dello scatto di una foto.

Con il lancio dell’iPhone 12 Pro Max, Apple ha introdotto il più grande sensore per fotocamera mai installato su un iPhone. Tuttavia, piuttosto che vantarsene, la società afferma che fa parte di una filosofia che vede i progettisti di fotocamere lavorare su ogni possibile aspetto, dall’hardware al software.

Parlando con il sito di fotografia PetaPixel, Francesca Sweet, product line manager per iPhone, e Jon McCormack, vice presidente dell’ingegneria del software della fotocamera, hanno sottolineato che lavorano su tutto il design per semplificare lo scatto di foto.

“Come fotografi, tendiamo a pensare molto a cose come ISO, movimento del soggetto, eccetera”, ha detto Job McCormack. “E Apple vuole consentire alle persone di rimanere nel momento, scattare una bella foto e tornare a quello che stanno facendo”.

“Non è più così significativo per noi parlare di una particolare velocità e feed di un’immagine o di un sistema di telecamere”, ha continuato. “Pensiamo a quale sia l’obiettivo, e l’obiettivo non è quello di avere un sensore più grande di cui possiamo vantarci”.

“L’obiettivo è chiedere come possiamo scattare foto più belle in più condizioni in cui si trovano le persone”, ha detto. “È stato questo pensiero che ha portato alla Deep Fusion, alla modalità notturna e altro”.

L’obiettivo generale di Apple, dicono sia McCormack che Sweet, è quello di “replicare automaticamente il più possibile ciò che il fotografo farà in post produzione”. Quindi, con il Machine Learning, il sistema di telecamere di Apple scompone un’immagine in elementi che può quindi elaborare.

“Lo sfondo, primo piano, occhi, labbra, capelli, pelle, vestiti, cieli”, elenca McCormack. “Elaboriamo tutti questi elementi in modo indipendente come faresti in Adobe Lightroom con una serie di regolazioni locali. Regoliamo tutto, da esposizione, contrasto e saturazione, e li combiniamo tutti insieme”.

Tuttavia, sia Sweet che McCormack ritengono che sia fondamentale il modo in cui Apple progetta e controlla ogni elemento, dall’obiettivo al software.

“Non tendiamo a pensare a un singolo asse”, ha detto McCormack. “Dal momento che progettiamo tutto, dall’obiettivo alla GPU e alla CPU, in realtà abbiamo molti più ambiti in cui possiamo innovare”.

Utilizziamo Link di Affiliazione Amazon che generano commissioni. Scopri cosa significa.

Se hai trovato interessante questo articolo, condividilo e fallo leggere anche ai tuoi amici:

Lascia un commento

Back to top button

Stai utilizzando un AdBlocker


iSpazio è un portale gratuito, supportato da Pubblicità. Non faremo mai pagare i nostri utenti per leggere le Notizie.

Le pubblicità su questo Blog non sono mai state di tipo invasivo e sono davvero poche, posizionate in maniera tale da non arrecare disturbo. Qui NON TROVERAI MAI Pubblicità Video, Pubblicità con riproduzione automatica oppure Pubblicità che si sovrappongono allo schermo!

Per tutti questi motivi, ti invitiamo a disattivare il tuo AdBlocker soltanto su questo sito per continuare la navigazione. Grazie di cuore!