Google, attraverso questo post sul proprio blog, ci mette al corrente di alcune analisi interne relative all’utilizzo della propria TPU in uso dal 2015 (Acronimo di Tensor Processing Unit), cioè di un ASIC dedicato al “compute-intensive machine learning” (A grandi linee, la macchina dovrebbe apprendere e diventare competente in determinate aree senza essere stata precedentemente programmata ad hoc per tale specifico lavoro).

 

 

Si tratta di un chip espressamente dedicato a macinare algoritmi dedicati allo sviluppo di uno stato embrionale di intelligenza artificiale, indirizzata – almeno inizialmente – a scopi puramente commerciali. Potrebbe venire utilizzata, ad esempio, per migliorare l’assistente vocale di Android, il proprio motore di ricerca o, ancora, Google Translate.

La parte più interessante del post riguarda il confronto fatto con CPU e GPU in commercio in relazione ai consumi ed alla potenza di calcolo. La TPU di Google si è dimostrata tra le 15 e le 30 volte più potente delle CPU e delle GPU in commercio, e tra le 30 e le 80 volte più efficiente in termini di TOPS/Watt.

Inoltre, la possibilità di lavorare su hardware altamente specializzato, ha ugualmente prodotto l’effetto di poter realizzare codice semplificato: “The neural networks powering these applications require a surprisingly small amount of code: just 100 to 1500 lines. The code is based on TensorFlow, our popular open-source machine learning framework”.

Questo report dimostra come, se si hanno le possibilità finanziarie, la realizzazione di un ASIC specifico sarebbe preferibile all’utilizzo di hardware generico in determinati ambiti. Allargando la visione di queste conclusioni, questo discorso potrebbe essere allargato soprattutto al mercato Automotive: molte case automobilistiche, visti questi risultati, potrebbero decidere di sviluppare soluzioni ad hoc, abbandonando i SoC attuali, in vista di un futuro sviluppo di auto a guida autonoma/assistita (E spiegherebbe, ad esempio, l’arrivo di Jim Keller in Tesla).