Nvidia e Marvell Technology hanno annunciato una partnership strategica per connettere Marvell alla piattaforma AI dello specialista dei chip ad alte prestazioni, oltre che all’ecosistema AI-Ran tramite Nvidia NVLink Fusion.
L’obiettivo è quello di offrire ai clienti che utilizzano architetture Nvidia maggiore scelta e flessibilità nello sviluppo di infrastrutture di nuova generazione. Le due aziende, si legge in una nota, collaboreranno anche sulla tecnologia della fotonica al silicio.
Nell’ambito dell’operazione, inoltre, Nvidia ha investito 2 miliardi di dollari in Marvell, azienda del Delaware che si occupa di tecnologie di infrastruttura dati da oltre 30 anni, aiutando le imprese a spostare, archiviare, elaborare e proteggere i propri dataset con soluzioni a semiconduttore.
Indice degli argomenti
Cosa prevede la partnership
La partnership si basa come detto su Nvidia NVLink Fusion, la piattaforma rack-scale che consente alle organizzazioni di sviluppare infrastrutture AI semi-personalizzate utilizzando l’ecosistema Nvidia NVLink. Nell’ambito della collaborazione, Marvell fornirà Xpu personalizzate e reti scalabili compatibili con NVLink Fusion, mentre Nvidia penserà alle tecnologie di supporto, tra cui Cpu Vera, schede di rete ConnectX, Dpu BlueField, interconnessioni NVLink e switch Spectrum-X, nonché la potenza di calcolo AI rack-scale.
Per i clienti che sviluppano Xpu personalizzate, NVLink Fusion consente l’implementazione di un’infrastruttura AI eterogenea pienamente compatibile con i sistemi Nvidia, permettendo una perfetta integrazione con le piattaforme Gpu, Lpu, di rete e di storage di Nvidia, sfruttando al tempo stesso il ricco ecosistema garantito dalla catena di fornitura globale del gruppo.
Le due aziende collaboreranno anche per trasformare la rete di telecomunicazioni mondiale in un’infrastruttura AI con Nvidia Aerial AI-RAN per 5G/6G e per promuovere reti di livello mondiale per l’IA, incluse soluzioni di interconnessione ottica avanzate e tecnologie di fotonica al silicio.
La visione strategica
“Il punto di svolta per l’inferenza è arrivato. La domanda di generazione di token è in forte aumento e il mondo è impegnato nella costruzione di centri di elaborazione AI”, commenta Jensen Huang, fondatore e ceo di Nvidia. “Insieme a Marvell, consentiamo ai clienti di sfruttare l’ecosistema di infrastrutture AI di Nvidia e di scalare per costruire sistemi di calcolo AI specializzati”.
Per Matt Murphy, presidente e ceo di Marvell, la partnership con Nvidia “riflette la crescente importanza della connettività ad alta velocità, dell’interconnessione ottica e delle infrastrutture accelerate per la scalabilità dell’AI. Collegando la leadership di Marvell nel settore dell’elaborazione digitale del segnale analogica e ottica ad alte prestazioni, della fotonica al silicio e dei semiconduttori personalizzati all’ecosistema AI in espansione di Nvidia tramite NVLink Fusion, consentiamo ai clienti di costruire infrastrutture AI scalabili ed efficienti”.
L’accordo stipulato con Ntt Data
La nuova iniziativa segue a ruota l’annuncio di un altro lancio congiunto: Ntt Data ha infatti introdotto una piattaforma enterprise basata sull’intero stack del colosso californiano, con l’obiettivo di portare l’AI in produzione su scala e rendere più rapido il ritorno sugli investimenti.
Il progetto arriva in una fase in cui la domanda di calcolo cresce e l’Europa prepara infrastrutture di nuova generazione, orientate alla creazione di grandi poli integrati. La concomitanza tra innovazione industriale e strategie istituzionali suggerisce un’evoluzione del settore verso architetture capaci di supportare flussi continui di sviluppo, addestramento e inferenza, superando la logica dei progetti pilota.
In questo scenario, la partnership tra Ntt Data e Nvidia si distingue per l’approccio full stack. Nell’architettura convergono elementi di calcolo e moduli software che offrono un quadro unico per la gestione del ciclo di vita dei modelli. Il risultato riguarda la possibilità di ridurre complessità e tempi di implementazione. Le aziende possono operare in ambienti cloud, data center o edge, mantenendo continuità di performance e regole uniformi. Secondo il gruppo, questa coerenza tecnologica risponde alle esigenze di settori regolati come sanità, finanza e industria manifatturiera, dove la qualità del dato e la conformità normativa rappresentano parte integrante dei processi di innovazione.
Il piano varato insieme a Meta
Risale invece a febbraio l’annuncio della partnership strategica multiyear e multigenerazionale stipulata tra Nvidia e Meta nell’ambito delle infrastrutture on-premises, cloud e piattaforme per l’intelligenza artificiale. L’obiettivo in questo caso è costruire data center hyperscale ottimizzati sia per l’addestramento sia per l’inferenza dei modelli, in linea con la roadmap di lungo periodo di Meta .
L’accordo prevede il dispiegamento su larga scala di Cpu Nvidia e di milioni di Gpu delle generazioni Blackwell e Rubin, oltre all’integrazione degli switch Ethernet Spectrum-X nella piattaforma Facebook Open Switching System. Si tratta di un salto dimensionale che consolida il ruolo degli hyperscaler come architravi dell’ecosistema AI globale.
Uno dei pilastri dell’intesa riguarda l’estensione dell’impiego delle Cpu Arm-based Nvidia Grace nei data center Meta, con miglioramenti significativi in termini di performance per watt. La collaborazione segna il primo deployment su larga scala di sistemi Grace-only, sostenuto da attività di codesign e ottimizzazione software.





