future proof

AI e data center, sono i neocloud i “game changer” delle reti



Indirizzo copiato

Dal supporto agli hyperscaler alla gestione full-stack, i nuovi provider offrono competenze mirate per l’AI, ottimizzano costi e performance e garantiscono flessibilità strategica

Pubblicato il 14 gen 2026



cloud_telco_corcom

AI e data center: il binomio sta trasformando radicalmente il settore. Non si tratta più di capire se l’intelligenza artificiale avrà un ruolo, ma di affrontare le sfide che la sua adozione impone alle infrastrutture. Nel corso di un confronto organizzato da Data Center Dynamics, con la partecipazione di David Power (Nscale), Chadie Ghadie (Lenovo) e Michael Bushong (Nokia), è emerso un quadro chiaro: il paradigma cloudregole del gioco. La discussione ha messo in luce come l’AI non sia più un concetto astratto, ma un elemento concreto che impatta su modelli di business, architetture tecnologiche e strategie di investimento. Il passaggio dall’entusiasmo alla pratica è già iniziato, e chi non si adatta rischia di restare indietro.

Il dominio dei big e le nuove sfide

I grandi provider – Aws, Azure, Gcp – hanno costruito l’globale, dominando un mercato che richiede capitali enormi e competenze specialistiche. Tuttavia, il passaggio dal calcolo generico all’AI ha aperto

spazi inattesi e creato nuove criticità. La corsa ai modelli fondativi ha messo in evidenza limiti che i colossi non possono risolvere da soli, soprattutto in termini di flessibilità e velocità di integrazione. È in questo contesto che emergono i neocloud, realtà nate per colmare gap tecnologici e operativi, senza sostituire i big, ma integrandosi con essi. Questi nuovi attori offrono competenze mirate per l’AI,fino all’integrazione di stack complessi, rispondendo a esigenze che i hyperscaler non riescono a soddisfare in modo tempestivo.

Neocloud: un ecosistema complementare

Come ha spiegato David Power, i neocloud non competono sullo stesso terreno dei hyperscaler, ma si posizionano come partner strategici. Nscale, ad esempio, sfrutta risorse energetiche a basso costo in aree strategiche come i Paesi nordici e il sud degli Stati Uniti, garantendo sostenibilità e riduzione dei costi operativi. Ma il vero valore è nella capacità di orchestrare componenti eterogenee sotto un’unica architettura, creando un’infrastruttura che non si limita a connettere hardware e software, ma che integra processi complessi come procurement, logistica e gestione delle forniture. In un mercato dove i clienti pagano per semplificare la complessità, questa capacità diventa un vantaggio competitivo decisivo.

Full-stack e complessità operativa

L’infrastruttura AI non si riduce a Gpu e Nic: serve un’integrazione che abbracci ogni livello, dall’hardware alla rete, fino alla logistica. “Procurement, accesso alle forniture e orchestrazione devono convergere su tempi imposti dai clienti”, ha sottolineato Power, evidenziando la pressione sui provider per rispettare scadenze sempre più strette. In questo scenario, Lenovoruolo chiave con le reference architecture: blueprint validati che semplificano il lavoro dei partner, riducendo attriti e accelerando la delivery. Queste soluzioni permettono di testare la compatibilità tra componenti e di offrire design pronti all’uso, riducendo il rischio di errori e ritardi. È un approccio che trasforma la complessità in valore, creando un ecosistema collaborativo dove ogni attore contribuisce alla stabilità e alla scalabilità del sistema.

Strategia e optionalità: la chiave per scalare

La velocità dell’innovazione impone flessibilità. “In un mercato dove il nuovo si misura in giorni, pianificare è impossibile”, ha evidenziato Bushong, sottolineando come la strategia di Nscale punti sull’optionalità, garantendo libertà tecnologica e finanziaria per adottare soluzioni emergenti senza vincoli. Questo approccio consente di costruire infrastrutture resilienti, capaci

di sostenere l’evoluzione dell’AI nel lungo periodo. In un contesto in cui le idee nascono e muoiono in poche settimane, preservare la capacità di adattamento è fondamentale per evitare investimenti che diventano rapidamente obsoleti. Optionalità significa poter scegliere, cambiare e integrare senza compromettere la stabilità del sistema, mantenendo aperte tutte le strade verso l’innovazione.

Standard aperti e collaborazione

La corsa all’AI non può prescindere da interoperabilità e standard aperti. “Ethernet resta vincente perché abilita la collaborazione”, ha ricordato Bushong, sottolineando come la competizione sia il miglior antidoto ai costi. Ma i consorzi devono accelerare: il ritmo dell’adozione non aspetta il consenso. In un ecosistema che si muove alla velocità dell’AI, la capacità di definire regole comuni diventa cruciale per evitare frammentazioni e inefficienze. Gli standard aperti non sono solo una questione tecnica, ma un fattore strategico che determina la possibilità di creare soluzioni interoperabili e di ridurre il rischio di lock-in. La collaborazione tra vendor, provider e partner è la chiave per costruire un mercato sostenibile e competitivo.

Oltre l’hype: verso un’AI sostenibile

Il futuro? Non è una bolla, ma una trasformazione destinata a durare. L’attenzione si sposta dall’entusiasmo alla pratica: inferenza, edge distribuito, evoluzione delle Wan e design dei cluster saranno i prossimi fronti. “Abbiamo corso veloce. Ora dobbiamo capire se possiamo andare lontano”, ha concluso Bushong, sintetizzando il passaggio da una fase pionieristica a una fase di consolidamento. L’AI non è più un obiettivo in sé, ma uno strumento che deve essere usato in modo efficace, bilanciando capacità e costi. La sfida è costruire infrastrutture che non inseguano solo la novità, ma che garantiscano solidità e scalabilità nel tempo. In questo scenario, i neocloud rappresentano una risposta concreta, capace di coniugare innovazione e sostenibilità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Aziende


Canali

Articoli correlati

0
Lascia un commento, la tua opinione conta.x