Google annuncia Visual Core, il suo primo SoC per dispositivi mobili, e Android 8.1 (aggiornato)

Nicola Ligas
Nicola Ligas Tech Master
Google annuncia Visual Core, il suo primo SoC per dispositivi mobili, e Android 8.1 (aggiornato)

A quanto pare c'è una novità dei Pixel 2 che nessuno sapeva. Nessuno tranne Google ovviamente, che l'ha appena svelata. Parliamo di Pixel Visual Core, il primo SoC per dispositivi mobili sviluppato a Mountain View e già presente all'interno dei suoi ultimi smartphone. Non si tratta però di un processore alla stregua, per esempio, degli Snapdragon di Qualcomm, ma di un chip dedicato all'elaborazione delle immagini (Image Processing Unit - IPU), in particolare dell'HDR+. Il bello però è che al momento è disattivato.

Lo scopo di Visual Core è infatti quello di rendere disponibile HDR+ su app di terze parti. Secondo Google, gli 8-core del suo SoC sono in grado di eseguire "oltre 3.000 miliardi di operazioni al secondo", permettendo ad HDR+ di essere 5 volte più veloce ma consumando meno di 1/10° dell'energia che non usando il SoC principale di sistema (es. Snapdragon 835).

Ovviamente tutto ciò non è stato fatto solo a beneficio degli altri. Pixel Visual Core è infatti programmabile, il che significa che altre funzionalità saranno aggiunte in futuro, e Google è già al lavoro su nuove applicazioni dedicate, delle quali però non ci viene svelato alcunché.

Visual Core arriverà come opzione per sviluppatori nella prima developer preview di Android 8.1 Oreo, che arriverà "nelle prossime settimane". In seguito, tutte le app di terze parti che usino la Android Camera API lo potranno sfruttare. Vi lasciamo con alcune immagini di esempio e con un'illustrazione del SoC stesso, seguite dal comunicato stampa originale.

Aggiornamento 25/10/2017 ore 08:50

Un portavoce di Google ha confermato a CNBC, che il Pixel Visual Core è stato realizzato in collaborazione nientemeno che con Intel. L'azienda di Mountain View ha puntualizzato che non esiste nessun chip sul mercato che faccia esattamente ciò che serviva a Google per i nuovi Pixel, e da lì è nata la partnership con Intel. I dettagli precisi sull'accordo, sul processore stesso e sulla durata di questa partnership non sono stati divulgati.

Pixel Visual Core: Image processing and machine learning on Pixel 2

The camera on the new Pixel 2 is packed full of great hardware, software and machine learning (ML) so all you need to do is point and shoot to take amazing photos and videos. One of the technologies that helps you take great photos is HDR+, which makes it possible to get excellent photos of scenes with a large range of brightness levels, from dimly lit landscapes to a very sunny sky.

HDR+ produces beautiful images, and we have evolved the algorithm over the past year to utilize the Pixel 2’s application processor efficiently and enable the user to take multiple pictures in sequence by intelligently processing HDR+ in the background. In parallel with that engineering effort, we have also been working on creating capabilities which enable significantly greater computing power, beyond existing hardware, to bring HDR+ to third-party photography
applications. To expand the reach of HDR+, to handle the most challenging imaging and machine learning applications, and to deliver lower-latency and even more power-efficient HDR+ processing, we have created Pixel Visual Core.

Pixel Visual Core is Google’s first custom-designed System on Chip (SoC) for consumer products. It is built into every Pixel 2, and in the coming months, we will turn it on through a software update to enable more applications to use Pixel 2’s camera for taking HDR+ quality pictures.

Let’s delve into some of the details. The centerpiece of Pixel Visual Core is the Google-designed Image Processing Unit (IPU)—a fully programmable, domain-specific processor designed from scratch to deliver maximum performance at low power. With eight Google-designed custom cores, each with 512 arithmetic logic units (ALUs), the IPU delivers raw performance of over 3 trillion operations per second on a mobile power budget. Using Pixel Visual Core, HDR+ can run 5x faster and at less than 1/10th the energy than running on the application processor (AP). A key ingredient to the IPU’s efficiency is the tight coupling of hardware and software—our software controls many more details of the hardware than in a typical processor. Handing more control to the software makes the hardware simpler and more efficient, but it also makes the IPU challenging to program using traditional programming languages. To avoid this, the IPU leverages domain-specific languages that ease the burden on both developers and the compiler: Halide for image processing and TensorFlow for machine learning. A custom Google-made compiler optimizes the code for the underlying hardware.

In the coming weeks, we will enable Pixel Visual Core as a developer option in the developer preview of Android Oreo 8.1 (MR1). Later, we will enable it to all third-party apps using the Android Camera API, giving them access to the Pixel 2’s HDR+ technology. We can’t wait to see the beautiful HDR+ photography which you already get through your Pixel 2 camera also be available in your favorite photography apps.

HDR+ is the first application to run on Pixel Visual Core. As noted above, Pixel Visual Core is programmable and we are already preparing the next set of applications. The great thing is that as we follow up with more, new applications on Pixel Visual Core, Pixel 2 will continue to improve. We’ll keep rolling out other imaging and ML innovations over time—keep an eye out!

Via: Droid-Life