TECNOLOGIE VERDI

Supercomputer AI, Google sfida Nvidia con il chip “green”

Rivelato in un documento il nuovo modello di Intelligenza artificiale Tensor Processing Unit in grado di velocizzare i processi e consumare energia da 1,3 a 1,9 volte in meno rispetto alla Gpu del chipmaker. Il sistema viene già utilizzato per addestrare il sistema Palm dell’azienda di Mountain View, che compete con ChatGpt di OpenAI

Pubblicato il 06 Apr 2023

Artificial,Intelligence,Ai,,Internet,Of,Things,Iot.,Business,Man,Using

Intelligenza artificiale, Google contro Nvidia nella sfida green che domina i settori più innovativi – e più energivori – delle big tech. Al centro la pubblicazione da parte di Google di un documento (sarà presentato all’Isca 2023) in cui illustra perché i suoi modelli di Intelligenza artificiale sono più veloci e hanno un minore impatto ambientale rispetto a quelli che girano sui supercomputer con hardware Nvidia. Il focus è sui Tpu v4 (Tensor Processing Unit) che secondo Google sono fino a 1,7 volte più veloci e 1,9 volte più efficienti dal punto di vista energetico rispetto al sistema basato sul chip A100 di Nvidia che già alimenta sistemi di Intelligenza artificiale come ChatGpt di OpenAI.

Nuovi parametri per la potenza di calcolo

Google ha specificato che il confronto non è stato fatto con la nuova H100 di Nvidia, presentata nel 2022, perché è arrivata sul mercato dopo la Tpu di Google. Infatti, sia l’A100 di Nvidia sia la TPU v4 di Google sono state lanciate nel 2020, ma solo adesso Google ha reso noti i dettagli del suo supercomputer che è in funzione da tre anni in un centro dati dell’azienda in Oklahoma.

“Le prestazioni, la scalabilità e la disponibilità rendono i supercomputer Tpu v4 i cavalli di battaglia dei modelli di linguaggio di grandi dimensioni”, spiegano i ricercatori Google. I costi dovuti alla quantità di potenza di calcolo necessaria per l’intelligenza artificiale porta i player del settore a concentrarsi sullo sviluppo di chip in grado di ridurla.

Ma intanto Nvidia annuncia il super-chip

I requisiti di alimentazione rappresentano inoltre un vantaggio per i fornitori di servizi cloud come Google, Microsoft e Amazon, che possono affittare le prestazioni di calcolo alle startup, secondo Reuters: Google afferma che Midjourney, il generatore di immagini AI, è stato addestrato sui suoi chip Tpu.

Intanto il Ceo di Nvidia Jensen Huang ha annunciato che il nuovissimo chip Nvidia, l’H100, è significativamente più veloce rispetto alla generazione precedente: “Prestazioni 4 volte superiori rispetto ad A100”.

E anche Google starebbe lavorando a una nuova versione della  Tpu che potrebbe essere annunciata nel corso del 2023.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati