La "magia" della fotocamera dei Google Pixel è nel software, non solo nell'hardware: ecco perché

Nicola Ligas
Nicola Ligas Tech Master
La "magia" della fotocamera dei Google Pixel è nel software, non solo nell'hardware: ecco perché

La fotocamera dei Google Pixel, tanto lodata da DXoMark, sembra aver convinto anche i primi recensori d'oltre oceano, ma qualcuno potrebbe ancora essere scettico, guardando alla mera scheda tecnica degli smartphone, che vede l'impiego di un sensore da 12 megapixel, f/2.0, senza OIS, con pixel di 1,55 um. Il punto è che, per la prima volta, Google ha davvero fatto magie lato software, come spiega Marc Levoy, che ha lavorato proprio ad alcune delle particolarità implementate sui Pixel.

[sentence_dx]I Pixel catturano immagini prima ancora che premiate il pulsante di scatto[/sentence_dx]

HDR+ in particolare è una di quelle funzioni che non andrebbero mai disabilitate. Grazie anche alla potenza del DSP Hexagon presente nello Snapdragon 821, i Pixel possono catturare immagini in RAW con zero shutter lag, ed il bello è che queste immagini costituiscono un flusso continuo che inizia ad essere registrato non appena aprite l'app della fotocamera.

Il momento in cui premete effettivamente il pulsante di scatto, è quello che indica al software che dovrà elaborare tutte le immagini registrate fino a quel momento per fornirvi il miglior risultato possibile.

Se ricordate, il funzionamento di HDR+ sui Nexus era molto diverso. Nel momento in cui premevate il pulsante di scatto, i Nexus catturavano più velocemente possibile le immagini che poi venivano elaborate in un HDR, ma questo significa anche che potevate perdere il momento voluto.

Con i Pixel l'approccio è completamente diverso, anche rispetto alle tradizionali tecniche per ottenere immagini HDR, che prevedono di catturare la stessa scena con valori di esposizione diversi (idealmente con esposizione corretta, sottoesposta e sovraesposta) per poi combinare il risultato in un'unica immagine. Anche HDR+ cattura più scatti della stessa scena, ma tutti sottoesposti. In questo modo le aree a forte luminosità sono rese al meglio e non "bruciate", cosa piuttosto tipica nella fotografia da smartphone; ma invece le ombre non dovrebbero risultare eccessive? No, perché lì interviene l'elaborazione matematica.

Detta in breve, più scatti vengono catturati e meno rumore ci sarà anche in quei pixel con poca luce (proporzionalmente alla radice quadrata del numero di foto scattate), e con questo approccio diventa più facile allineare le varie foto senza che si verifichino fenomeni di ghosting, oltre a migliorare gli scatti in condizioni di scarsa luminosità, con colori che possono essere tenuti più saturi (e non slavati come in altre fotocamere) grazie alla riduzione del rumore di cui sopra.

In ultima battuta, è anche per questo che non è stato inserito lo stabilizzatore ottico: non dovendo catturare immagini ad esposizione lunga, ma potendo combinarne tante ad esposizione breve, non c'è bisogno di un OIS, anche se ovviamente siamo già entrati in un campo un po' opinabile, come del resto quasi tutto in materia di resa fotografica.

Levoy rimane convinto che la computational photography sia la giusta direzione in cui indagare, e che al momento sia stata intaccata solo la superficie delle sue potenzialità, citando degli esperimenti da lui fatti in condizioni di luminosità estremamente scarsa, come potete vedere dal video qui sotto.

Se sarà una scommessa vinta, lo scopriremo non tanto con i Google Pixel, ma con gli anni a venire.

Fonte: The Verge