exynos 5 octa

Samsung Exynos 5 Octa: ecco il chip del Galaxy S4

Giuseppe Tripodi

Il Galaxy S4 è stato ormai svelato, sappiamo (quasi) tutto ciò che vorremmo sapere e Expansys ci ha confermato che il modello europeo monterà un SoC Exynos 5 Octa, che vanta la fama tanto discussa di avere otto core. Tra critiche varie, dubbi, questioni e gli immancabili cosa ci fai con otto core?, andiamo ad approfondire con più attenzione cosa c’è dietro questo nuovo chip.

Prima di tutto: sì, sono effettivamente presenti ben otto core CPU, ma non sono tutti uguali. Come sempre accade in questi casi, il primo problema da risolvere è equilibrare la potenza di calcolo con il consumo: quello che normalmente succede negli altri dispositivi è che il chip può utilizzare più core e una maggiore velocità di clock quando il sistema richiede maggiori risorse, mentre nelle fasi di scarso utilizzo alcuni core vengono generalmente disabilitati. Samsung ha leggermente cambiato le carte in tavola, utilizzando una configurazione  suggerita da ARMS chiamata col nome di big.LITTLE.

La particolarità dell’Exynos 5, infatti, è quella di accoppiare due diversi tipi di core, uno più veloce e performante (in questo caso il Cortex-A15 a 1.2Ghz) accompagnato da uno più piccolo e meno esoso in termini di risorse (il Cortex-A7 a 1.6Ghz): entrambi possono supportare lo stesso tipo di istruzioni, quindi gli unici parametri che li differenziano effettivamente sono velocità e consumi. I task più leggeri (come la navigazione e le email) saranno quindi gestiti esclusivamente dall’A7, mentre i processi che necessitano maggior potenza di calcolo (giochi, in particolare) verranno inviato all’A15.

Il firmware che si occupa del controllo dei core si trova ad un livello che precede il software dello smartphone quindi, sebbene i vari sistemi operativi possano essere modificati per migliorare le performance del SoC, il corretto utilizzo della configurazione big.LITTLE viene garantito a prescindere dell’OS.

In realtà, l’Exynos 5 non è il primo ad utilizzare due diversi tipi di core: anche Nvidia con i suoi chip Tegra utilizza dei core companion (o shadow) per le operazioni più leggere, ma la particolarità di big.LITTLE è di associare ogni singolo core più potente con uno di fascia più bassa.

Dopo tante parole, andiamo a vedere meglio come funziona con un video di spiegazione direttamente da Samsung.

Come ben saprete, non siamo grandi amanti dei benchmark che spesso possono fornire numeri non esattamente corrispondenti alle reali prestazioni e, soprattutto in questo caso in cui neanche agli autori dei test è chiaro quali siano i core utilizzati dal Galaxy S4, vi invitiamo a prendere i risultati con le pinze: dalle immagini qui in basso, sembra che non ci sia confronto tra i risultati di Tegra (ottenuti su un tablet con una configurazione hardware non definitiva) e l’Exynos 5, ma di sicuro spiccano anche le differenze tra l’S4 e il suo predecessore.

Galaxy-S-4-quick-benches.001

Galaxy-S-4-quick-benches.002

Per quanto riguarda la GPU, invece, abbiamo meno da dire (per vostra fortuna): si tratta di una Imagination Technologies PowerVR SGX 544MP3 triple-core, molto simile alla 543MP3 utilizzata da Apple nei suoi SoC: la principale differenza tra le due consiste nel fatto che la prima supporta anche Direct X9 e Open GL 2.1 (il ché potrebbe far supporre un suo utilizzo all’interno di smartphone con Windows Phone).

Dopo tutte queste cifre e tecnicismi, vi ricordiamo che, qualora abitiate negli Stati Uniti, avreste potuto saltare con piacere questa lettura, poiché la configurazione hardware cambia per gli USA: il SoC utilizzato oltreoceano è infatti uno Snapdragon 600, quad-core a 1.9Ghz: il perché di questa scelta risiede in realtà in motivazioni dettate dalla connessione dati, essendo i moduli LTE della Qualcomm attualmente i migliori.

Concludendo, ci domandiamo: quanti degli effettivi acquirenti di smartphone di ultima generazione possono comprendere tutte queste differenze? E quanti, invece, si lasciano semplicemente abbagliare da slogan e numeri? Se avete finito di leggere ed avete ancora tempo da condividere con noi, fateci sapere la vostra con un commento.

Via: Via
NVIDIAvideo