SCENARI

Data center, intelligenza artificiale al centro delle nuove strategie

I dati Idc: la GenAI guiderà la spesa IT per le infrastrutture nei prossimi 18 mesi. Intel lancia l’acceleratore Gaudi 3 e lancia la sfida a Nvidia. Ecco cosa sta succendo

Pubblicato il 10 Apr 2024

In,Dark,Data,Center:,Male,It,Specialist,Walks,Along,The

Idc prevede che la GenAI sarà il primo motore degli investimenti infrastrutturali nei prossimi 18 mesi. La natura in tempo reale e ad alta intensità di dati di queste tipologie di applicazione costringerà infatti molte aziende a rivalutare i programmi e le priorità relative alle infrastrutture digitali. In particolare, la spesa per le infrastrutture digitali per adottare la tecnologia supererà i 18 miliardi di dollari nel 2024 e crescerà a quasi 50 miliardi di dollari entro il 2027.

Le sfide sul piano infrastrutturale

Secondo l’edizione più recente della Worldwide Future of Digital Infrastructure Sentiment Survey di Idc, del resto, quasi otto aziende su dieci hanno dichiarato di ritenere l’infrastruttura digitale “importante” o “mission critical” per il successo delle proprie iniziative di business. La stessa indagine ha rivelato anche che l’adozione dell’intelligenza artificiale generativa, il miglioramento della produttività e della fidelizzazione dei dipendenti, e l’ottimizzazione dei budget e dei ricavi sono i tre principali driver che guidano le attuali strategie infrastrutturali aziendali.

Con la GenAI come catalizzatore, entro il 2027 il 40% delle imprese si affiderà ad architetture IT interconnesse tra cloud, core ed edge per supportare priorità di flusso di lavoro dinamiche e indipendenti dalla posizione geografica.

Le organizzazioni stanno già attivamente esplorando modi per infondere le proprie attività e operazioni IT con la tecnologia GenAI. Ciò che per l’appunto molte aziende stanno scoprendo con i primi test e le prime esplorazioni è che l’infrastruttura e le piattaforme di cui dispongono oggi non sono pronte a supportare il volume, la distribuzione e la sincronizzazione dei dati e delle risorse infrastrutturali richiesti.

La GenAI, infatti, si nutre di dati e risorse indipendentemente dalla loro ubicazione fisica. I dati possono risiedere nel cloud, nei data center centrali e in una miriade di postazioni edge e IoT altamente distribuite. Ogni luogo ha poi tipi di dati e piattaforme diverse. Per avere successo con la GenAI e sfruttarne le potenzialità, molti di questi componenti devono funzionare con la massima orchestrazione e sincronizzazione. La GenAI sta quindi determinando la richiesta di architetture infrastrutturali di nuova generazione che siano ottimizzate per il flusso di lavoro piuttosto che centrate sul carico di lavoro. Questi ambienti di nuova generazione saranno altamente automatizzati e governati sulla base di eventi e metriche prestazionali, utilizzo e costi delle applicazioni end-to-end in tempo reale. Saranno dinamicamente scalabili e forniranno a un’ampia varietà di utenti finali un accesso self-service e on-demand a servizi e piattaforme avanzati in ambienti on-premise, edge e cloud pubblici. Soprattutto, saranno interconnessi.

Intel lancia l’acceleratore Gaudi 3

Sempre in tema di GenAI, Intel ha presentato l’acceleratore Gaudi 3 che promette prestazioni, standard aperti e possibilità di scelta alle aziende che puntano sulla tecnologia. In occasione della conferenza Intel Vision 2024 aperta a clienti e partner è stata annunciata una suite di nuovi sistemi aperti e scalabili, prodotti di nuova generazione e collaborazioni strategiche per accelerare l’adozione della tecnologia.

“Grazie al silicio, l’innovazione avanza a un ritmo senza precedenti e ogni azienda sta rapidamente adottando intelligenza artificiale”, ha affermato il ceo di Intel Pat Gelsinger. “Intel sta portando l’intelligenza artificiale in ogni parte dell’azienda, dal pc al data center fino all’edge. Le nostre ultime piattaforme Gaudi, Xeon e Core Ultra offrono un insieme coerente di soluzioni flessibili su misura per soddisfare le mutevoli esigenze dei nostri clienti e partner e sfruttare le immense opportunità che si presentano per il futuro”.

L’acceleratore AI Intel Gaudi 3 alimenterà i sistemi AI con un potenziale di decine di migliaia di acceleratori collegati tramite Ethernet. Intel Gaudi 3 promette una potenza di calcolo AI quattro volte superiore per BF16 e un’ampiezza di banda della memoria superiore di una volta e mezza rispetto al suo predecessore. L’acceleratore rappresenterà un passo avanti significativo nella formazione e nell’inferenza dell’AI per le aziende globali che desiderano implementare GenAI su larga scala.

Rispetto a Nvidia H100, per esempio, si prevede che Intel Gaudi 3 fornisca un time-to-train mediamente più veloce del 50%3 sui modelli Llama2 con parametri 7B e 13B e sul modello con parametri Gpt-3 175B. Inoltre, si prevede che il throughput di inferenza dell’acceleratore Intel Gaudi 3 supererà l’H100 del 50% in termini di prestazioni medie e del 40% termini di efficienza energetica media dell’inferenza tra i parametri Llama 7B e 70B e i modelli di parametri Falcon 180B.

Intel Gaudi 3 fornisce un software aperto community based e reti Ethernet standard. Inoltre, consente alle aziende di scalare in modo flessibile da un singolo nodo a cluster, super-cluster e mega-cluster con migliaia di nodi, sostenendo inferenza, messa a punto e formazione su larga scala. Il prodotto sarà disponibile per gli Oem, tra cui Dell Technologies, Hpe, Lenovo e Supermicro, nel secondo trimestre del 2024.

E Google annuncia una nuova versione dei suoi chip AI

Ma anche Google è della partita: ieri Mountain View ha rivelato i dettagli di una nuova versione dei suoi chip di intelligenza artificiale per data center e ha annunciato un processore centrale basato su Arm.

Le unità di elaborazione tensoriale di Google sono una delle poche alternative valide ai chip avanzati di intelligenza artificiale prodotti da Nvidia, anche se gli sviluppatori possono accedervi solo attraverso la piattaforma cloud di Google e non acquistarli direttamente. Google intende offrire l’unità di elaborazione centrale basata su Arm, chiamata Axion, tramite Google Cloud. L’azienda ha dichiarato che questa unità offre prestazioni superiori a quelle dei chip x86 e chip Arm di uso generale nel cloud.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4