Negli ultimi anni l’accelerazione della domanda di intelligenza artificiale ha messo sotto pressione le infrastrutture digitali. I singoli data center, per quanto estesi e potenti, stanno progressivamente raggiungendo i limiti di potenza e capacità. L’approccio classico di “scale up”, ovvero potenziare verticalmente un singolo sito, e quello di “scale out”, che si concentra sull’espansione orizzontale all’interno della stessa struttura, non bastano più.
Nvidia ha individuato in questo scenario la necessità di un nuovo paradigma: connettere data center distribuiti, anche lontani tra loro, per farli funzionare come un unico organismo. Un’idea che va oltre i modelli tradizionali di crescita e che punta a creare quella che l’azienda definisce “AI super-factories”.
Indice degli argomenti
La svolta del “scale across”
La novità introdotta da Spectrum-XGS è il concetto di “scale across”. Non si tratta di aggiungere semplicemente capacità a un sito esistente, ma di unire più centri dati attraverso algoritmi capaci di ridurre latenza, jitter e imprevedibilità delle reti Ethernet standard.
“La rivoluzione industriale dell’intelligenza artificiale è arrivata e le fabbriche di AI sono l’infrastruttura essenziale – spiega Jensen Huang, fondatore e Ceo di Nvidia – Con Nvidia Spectrum-XGS Ethernet aggiungiamo lo scale-across alle capacità di scale-up e scale-out per collegare data center in diverse città, nazioni e continenti in vaste super-fabbriche di intelligenza artificiale su scala giga”.
È un salto di qualità che, secondo l’azienda, consente a più data center di operare come se fossero un unico supercomputer, pienamente ottimizzato per la connettività a lunga distanza.
Come funziona Spectrum-XGS
Uno degli aspetti più rilevanti dell’annuncio è che non sono necessari cambiamenti hardware. Gilad Shainer, Senior Vice President of Networking di Nvidia, ha sottolineato che la nuova piattaforma si basa su algoritmi sviluppati ad hoc per spostare dati in modo più efficace tra siti lontani: “Abbiamo creato nuovi algoritmi che consentono un trasferimento di dati più efficace su lunghe distanze tra diversi siti”.
Questo approccio consente di incrementare del 90% le prestazioni della Collective Communications Library di Nvidia, migliorando la comunicazione multi-GPU e multi-node in cluster AI geograficamente distribuiti.
Spectrum-XGS integra funzionalità avanzate come distance congestion control auto-regolato, gestione di precisione della latenza e telemetria end-to-end. Tutto ciò contribuisce a garantire prestazioni prevedibili, eliminando i colli di bottiglia tipici delle connessioni inter-site.
Il ruolo dei partner: CoreWeave tra i primi
Il lancio di Spectrum-XGS non resta confinato alla teoria. CoreWeave, uno dei pionieri del cloud hyperscale, sarà tra i primi a implementare questa tecnologia.
Peter Salanki, cofondatore e CTO dell’azienda, ha dichiarato: “La missione di CoreWeave è offrire l’infrastruttura di intelligenza artificiale più potente agli innovatori di tutto il mondo. Con NVIDIA Spectrum-XGS possiamo collegare i nostri data center in un unico supercomputer unificato, dando ai nostri clienti accesso a un’AI su scala giga che accelererà le scoperte in ogni settore”.
Questo significa che realtà industriali, startup e grandi corporation avranno accesso a risorse di calcolo distribuite ma integrate, con un impatto diretto sulla rapidità di innovazione nei settori più diversi, dalla sanità alla finanza, fino alla manifattura avanzata.
Numeri e mercato: un business da miliardi
La strategia di Nvidia si innesta su una crescita già registrata dalla piattaforma Spectrum-X. L’azienda non ha ancora diffuso i dati relativi al secondo trimestre fiscale, ma nel primo trimestre ha annunciato che Spectrum-X stava già “annualizzando oltre 8 miliardi di dollari di ricavi”, ovvero circa 2 miliardi a trimestre.
I clienti che hanno adottato Spectrum-X includono pertner come Microsoft, Oracle e CoreWeave, cui si sono recentemente aggiunti Google Cloud e Meta. L’introduzione di Spectrum-XGS non fa che consolidare questa posizione di leadership, aprendo nuove prospettive di mercato e ampliando la base di partner industriali.
L’innovazione continua: Dynamo e il futuro del calcolo distribuito
L’annuncio di Spectrum-XGS si inserisce in un filone più ampio di innovazioni. Durante la presentazione, Nvidia ha sottolineato anche i progressi della piattaforma Dynamo, dedicata all’inference con serving disaggregato.
Dave Salvator, Director for Accelerated Computing Products di Nvidia, ha illustrato come suddividere diversi segmenti di un carico di lavoro di inferenza tra GPU differenti porti a significativi incrementi di performance: “Può effettivamente offrire incrementi di prestazioni davvero significativi”.
Secondo i test citati, con il modello GPT-OSS di OpenAI si ottiene quasi un aumento di 4 volte nel numero di token al secondo per utente, mentre con il modello DeepSeek R1 il throughput cresce di 2,5 volte. “Questa è un’altra area di ricerca e sviluppo su cui stiamo lavorando . aggiunge SAlvator – Ma ciò che stiamo osservando, in generale, è che il potenziale del serving disaggregato è molto incoraggiante, in termini di ciò che può offrirci e di come riesce a farci ottenere più prestazioni dalla stessa infrastruttura”.
Prospettive: verso un’infrastruttura globale per l’AI
Con Spectrum-XGS, Nvidia punta a creare un’infrastruttura capace di estendersi oltre i confini geografici. Non più semplici poli tecnologici isolati, ma hub interconnessi che operano come fabbriche di intelligenza artificiale su scala planetaria.
Le implicazioni sono enormi: dai tempi di addestramento dei modelli alla capacità di erogare servizi di AI in tempo reale, fino alla sostenibilità, grazie alla possibilità di distribuire i carichi di lavoro tra data center con disponibilità energetiche diverse.
In prospettiva, le parole di Huang assumono il valore di una visione strategica: il futuro dell’intelligenza artificiale non sarà costruito in un unico campus tecnologico, ma in una rete di fabbriche intelligenti connesse da un’infrastruttura di nuova generazione.
Un cambio di paradigma per i data center
Spectrum-XGS non è solo un’evoluzione tecnica, ma rappresenta un cambio di paradigma per l’industria dei data center e delle telecomunicazioni. L’idea di “scale across” apre la strada a un modello di calcolo distribuito che unisce potenza e flessibilità, trasformando i limiti in opportunità e ponendo Nvidia al centro della rivoluzione industriale dell’intelligenza artificiale.