networking

Edge AI, la monetizzazione passa dalla rete distribuita



Indirizzo copiato

Hpe lancia insieme a Nvidia la soluzione end-to-end che consente ai service provider di implementare e gestire migliaia di siti di inferenza decentralizzati, trasformando le installazioni per l’intelligenza artificiale in un unico sistema smart. Per le telco significa sviluppare nuovi ricavi sul fronte enterprise e riqualificare gli asset di rete

Pubblicato il 24 mar 2026



AI-intelligenza-artificiale, Linee guida AgID intelligenza artificiale PA

Una soluzione end-to-end basata sull’architettura Nvidia per collegare in modo sicuro le “AI factory” e i cluster di inferenza distribuiti tra sedi locali e periferiche. È questa Hpe AI Grid, l’offerta congiunta dei due colossi tecnologici che consente ai service provider di implementare e gestire migliaia di siti di inferenza decentralizzati, trasformando le installazioni per l’intelligenza artificiale in un unico sistema smart.

La notizia è rilevante soprattutto per il settore delle telecomunicazioni in quanto promuove un cambio di ruolo — da carrier a piattaforma distribuita per inferenza AI — e dà una cornice industriale alla monetizzazione dell’edge.

Un modo sicuro e scalabile per gestire l’inferenza distribuita

Le applicazioni AI native richiedono un’infrastruttura prevedibile, a bassa latenza e distribuita. Ecco perché la soluzione Hpe AI Grid, parte del portafoglio Nvidia AI Computing by Hpe, punta a offrire prestazioni prevedibili e a bassissima latenza su larga scala per servizi di AI in tempo reale, provisioning zero-touch e sicurezza automatizzata con orchestrazione integrata.

“Stiamo ridefinendo il modo in cui viene fornita l’AI spostando l’intelligenza dove si trovano i dati e gli utenti, rendendo la rete il tessuto affidabile e resiliente per le esperienze in tempo reale”, commenta Rami Rahim, executive vice president, president and general manager del Networking di Hpe. “Hpe AI Grid con Nvidia offre ai service provider un modo sicuro e scalabile per gestire l’inferenza distribuita come un unico sistema, garantendo prestazioni prevedibili e a bassissima latenza in modo che i clienti possano innovare più rapidamente, ridurre i rischi e creare nuovi servizi”.

Chris Penrose, global vice president dell’area Telco di Nvidia. Precisa che “un’AI Grid unifica i cluster di AI distribuiti geograficamente per collocare i carichi di lavoro di AI dove funzionano meglio, bilanciando prestazioni, costi e latenza tra le strutture di AI, i siti locali e l’edge. Insieme a Hpe, stiamo dando vita a questa visione combinando l’elaborazione accelerata e il networking di Nvidia con il routing multicloud delle telco e l’infrastruttura edge di Hpe, per creare un unico fabric intelligente per l’inferenza distribuita”.

Le caratteristiche della nuova offerta

Hpe AI Grid è conforme all’architettura di riferimento Nvidia AI Grid per fornire uno stack hardware e software unificato ai service provider. Hpe AI Grid si distingue per la capacità di Hpe di offrire server e reti AI full-stack. Hpe AI Grid include il routing multicloud telco di Hpe Juniper e l’ottica coerente per una connettività metropolitana e a lunga distanza prevedibile; sicurezza cloud-native e multi-tenant; firewall; automazione Wan; e orchestrazione per garantire implementazioni zero-touch e operazioni di gestione del ciclo di vita. A questo si aggiungono server edge Hpe ProLiant Compute e server rack con elaborazione accelerata Nvidia, incluse le Gpu Nvidia Rtx Pro 6000 Blackwell, nonché Dpu Nvidia BlueField, switch Ethernet Spectrum-X, SuperNIC Connect-X e architetture di riferimento di AI per una rapida implementazione di modelli per erogare servizi di inferenza

L’impatto sui modelli di businesse degli operatori Tlc

Per gli operatori Tlc accedere a un modello simile può voler dire cominciare a generare nuovi ricavi sul fronte enterprise. Hpe cita come casi d’uso quelli della retail personalization, della predictive maintenance, dell’edge healthcare e del carrier-grade AI services. D’altra parte, facendo leva su un’architettura come Hpe AI Grid, i siti esistenti con alimentazione e connettività possano essere convertiti in nodi “Ran-ready” per l’inferenza distribuita. Questo, per una telco, significa monetizzare central office, edge node e footprint metro già presenti.

Il secondo potenziale impatto dell’offerta riguarda la riqualificazione degli asset di rete. La proposta Hpe non vende solo server Gpu, ma anche routing Juniper, ottiche coerenti, sicurezza multi-tenant, automazione Wan e orchestrazione. Grazie a questi elementi la rete telco può diventare parte attiva dello stack AI, una prospettiva coerente con la strategia che Hpe ha mostrato al Mwc 2026, dove l’azienda ha parlato esplicitamente di soluzioni AI-native “from the core to the edge” per service provider.

C’è poi il tema della pressione competitiva. La nuova proposizione non è solo un annuncio Hpe: è come detto una partnership con Nvidia, la quale intende percorrere una traiettoria più ampia, con operatori e infrastrutture distribuite come AT&T, Comcast, Spectrum, Akamai, Indosat e T-Mobile coinvolti in AI grid o sperimentazioni affini. Questo rafforza l’idea che l’edge AI stia diventando un terreno competitivo reale per telco e provider distribuiti

Le nuove sperimentazioni

Nell’ambito del potenziamento della propria strategia di AI Grid, Comcast ha per esempio annunciato nuove prove AI sul campo sulla propria rete altamente distribuita per l’inferenza dell’AI edge in tempo reale, al fine di garantire esperienze più veloci e reattive per la prossima ondata di applicazioni AI.

Le prime sperimentazioni hanno affrontato diversi casi d’uso, tra cui l’utilizzo di server Hpe ProLiant che eseguono piccoli modelli linguistici da Personal AI, parte del programma di partnership “Unleash AI” di Hpe, su Gpu Nvidia per fornire servizi di “front desk” basati sull’AI per le piccole imprese.

E c’è poi chi come CityFibre sta utilizzando AI Grid di Hpe per supportare l’inferenza AI distribuita e avvicinare l’intelligenza agli utenti e ai dati. “I nostri clienti si aspettano sempre più una reattività nell’ordine dei millisecondi, una connettività a bassa latenza e una sicurezza completa a supporto delle loro applicazioni e dei loro servizi”, spiega Neil McRae, ctio di CityFibre. “Sfruttando le nostre risorse di rete in fibra ottica, vediamo il potenziale per combinare una connettività ad alte prestazioni con servizi intelligenti per i clienti”.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x