Il confronto che oggi anima la sovranità digitale non è più una discussione per addetti ai lavori né una costruzione teorica: Antonio Neri, presidente e amministratore delegato di Hewlett Packard Enterprise, nell’intervento pubblicato sul blog del World Economic Forum descrive un passaggio ormai acquisito dal mercato. Quando aumentano le tensioni geopolitiche, quando le catene di fornitura mostrano fragilità e quando i rischi informatici si intensificano, la capacità di governare le tecnologie critiche diventa un requisito della prosperità, non un obiettivo accessorio.
In questo scenario la sovranità non riguarda soltanto la residenza dei dati. Coincide con la possibilità di presidiare i nodi strategici: le piattaforme cloud, la potenza di calcolo per l’intelligenza artificiale e le reti che collegano in modo sicuro dati, infrastrutture e applicazioni. È qui che la questione incrocia l’agenda delle telecomunicazioni: senza connettività affidabile e architetture coerenti, la sovranità resta una formula; con una catena infrastrutturale solida, diventa una leva industriale.
Indice degli argomenti
Le ricette fin qui adottate e i loro effetti collaterali
Neri riconosce che proteggere la sovranità digitale è necessario, ma osserva come gli strumenti impiegati finora abbiano spesso generato costi aggiuntivi e distorsioni. I regimi di conformità aumentano spese e complessità; le regole “buy-local” possono limitare l’accesso a piattaforme di livello mondiale; i sussidi, anche quando consistenti, faticano a colmare il divario con pochi leader globali.
Il punto non è mettere in discussione regolazione e incentivi, bensì evitare che la sovranità venga interpretata come autosufficienza tecnologica. Se l’obiettivo diventa replicare integralmente ciò che fanno gli hyperscaler, il rischio è di ridurre competitività e capacità d’innovazione, soprattutto in un ciclo tecnologico che premia la scala, la velocità di esecuzione e l’efficienza nell’allocazione del capitale.
Il cloud europeo tra concentrazione e dipendenze
Il testo richiama un indicatore che sintetizza la traiettoria del mercato: nel cloud europeo la quota complessiva dei fornitori locali è scesa dal 29% al 15% tra il 2017 e il 2024, mentre tre hyperscaler statunitensi coprono circa il 70% della domanda. La concentrazione, in questo caso, non è soltanto un fatto industriale: influenza le strategie di procurement, condiziona le scelte tecnologiche e moltiplica i punti di vulnerabilità.
In questo scenario le imprese temono i lock-in e il peso negoziale ridotto rispetto ai grandi fornitori. Per la pubblica amministrazione, la pressione aumenta perché occorre conciliare innovazione e requisiti stringenti su riservatezza, continuità e sicurezza. Per il settore tlc, la centralizzazione dei carichi modifica i flussi di traffico, sposta il baricentro degli investimenti sulla capacità di trasporto e rafforza la centralità dell’interconnessione. La stessa logica – nota Neri – si osserva nell’intelligenza artificiale: gli investimenti più rilevanti restano concentrati in pochi data center molto grandi, controllati da un numero limitato di gruppi con sede soprattutto negli Stati Uniti o in Cina.
Dalla corsa ai modelli “giganti” alla fase dell’AI distribuita
Il lancio pubblico dei grandi modelli linguistici, come ChatGpt alla fine del 2022, ha attivato una stagione di sperimentazione accelerata. Molte organizzazioni hanno testato applicazioni generative capaci di redigere testi, sintetizzare ricerche o scrivere codice. Gli investimenti, però, si sono diretti in larga misura verso l’addestramento di modelli fondazionali sempre più grandi, quasi sempre in infrastrutture hyperscale centralizzate: secondo gli analisti citati, oltre due terzi della spesa globale in AI degli ultimi quattro anni sarebbe confluita proprio in quella direzione.
I risultati, tuttavia, sono stati disomogenei. Secondo un sondaggio del MIT solo una quota ridotta dei progetti pilota produce valore misurabile. La ragione, nell’interpretazione di Neri, è strutturale: un modello fondazionale, anche molto evoluto, è soltanto un componente di un sistema più vasto. Il vantaggio competitivo di una banca, di un’azienda manifatturiera o di un’autorità sanitaria deriva dal dato proprietario, che risulta distribuito, spesso frammentato e frequentemente sottoposto a vincoli severi di riservatezza.
Per valorizzare quel patrimonio, l’intelligenza deve avvicinarsi ai dati, adattarsi al contesto locale e operare in autonomia entro confini predefiniti. In questa prospettiva emerge la definizione di “agentic AI”: non più un unico modello monolitico che risponde a richieste testuali nel cloud, bensì una rete di agenti specializzati che collaborano, apprendono e, quando necessario, agiscono in tempo reale all’edge, cioè nei luoghi in cui si svolgono processi e decisioni — dalla fabbrica al veicolo, fino ai perimetri di sicurezza nazionale. Ne consegue una trasformazione architetturale: l’AI diventa un’applicazione ibrida e multilivello, nella quale addestramento centralizzato e inferenza locale si rafforzano reciprocamente.
Perché la nuova architettura cambia l’equazione della sovranità
Neri sostiene che la seconda fase della rivoluzione dell’intelligenza artificiale può riallineare sovranità e competitività. L’architettura distribuita non rappresenta soltanto un’evoluzione tecnica: incide sul calcolo economico e geopolitico, perché redistribuisce le opportunità lungo la catena del valore.
Il primo elemento riguarda la natura dei dati impiegati nei casi d’uso ad alto valore: spesso si tratta di informazioni locali e sensibili, per cui l’ottimizzazione e l’inferenza avvengono in ambienti controllati dal proprietario del dato, come un data center aziendale, un campus ospedaliero o un micro data center in sede. Questa configurazione attenua dipendenze unilaterali e consente di applicare standard propri di sicurezza, privacy e conformità.
Il secondo elemento è la latenza. Robot autonomi, reti elettriche intelligenti o motori di trading algoritmico non possono attendere la risposta di un data center remoto. L’elaborazione all’edge migliora prestazioni e resilienza e, al contempo, alimenta la domanda di infrastrutture regionali e connettività specializzata. In questo snodo la telecomunicazione assume una funzione abilitante: senza reti capaci di garantire tempi di risposta, affidabilità e protezione, l’intelligenza distribuita non può sostenere processi critici.
Il terzo elemento riguarda energia e sostenibilità. I cluster di AI ad alta densità assorbono enormi quantità di elettricità e generano calore significativo; la collocazione di strutture più piccole in aree con energia a basse emissioni, oltre alla possibilità di riutilizzare il calore, può ridurre emissioni e costi operativi. La sostenibilità entra così nel disegno dell’infrastruttura, influenzando la localizzazione del calcolo e la struttura del mercato.
Il “sistema nervoso” dell’ecosistema: reti sicure e ad alte prestazioni
In questa traiettoria, la catena del valore dell’AI si articola in livelli differenti ma interoperabili. Neri descrive siti hyperscale o “gigafactory” dedicati all’addestramento dei modelli più grandi; indica poi centri regionali o verticali che gestiscono l’ottimizzazione con dati proprietari; colloca infine nodi periferici in fabbriche, veicoli o scambi telefonici per l’inferenza in tempo reale e per l’operatività di agenti autonomi. A collegare i livelli intervengono reti ad alte prestazioni e sicure, definite il “nervous system” dell’ecosistema, perché consentono alle informazioni generate localmente di alimentare il ciclo di miglioramento dei modelli.
Per il settore tlc, la conseguenza è che la rete non coincide più con un livello di trasporto indifferenziato. La connettività diventa un componente architetturale che determina dove collocare calcolo, dati e funzioni, oltre a influenzare la possibilità di integrare governance e sicurezza lungo tutta la filiera.
Imprese: valore nell’orchestrazione, non nel possesso del “monolite”
In questo scenario la prossima ondata di valore generata dall’AI dipenderà dall’orchestrazione di più componenti, non dal controllo di un’unica piattaforma. Il vantaggio competitivo premierà chi saprà individuare i propri asset informativi distintivi, costruire o attivare capacità infrastrutturali locali nei punti in cui il dato è critico, e integrarsi con fornitori globali laddove la scala risulti determinante.
Ne deriva una strategia selettiva: non si tratta di scegliere tra interno ed esterno come opzioni alternative, bensì di definire una mappa di cosa tenere sotto controllo e di cosa invece rendere interoperabile, preservando flessibilità contrattuale e continuità operativa. La sovranità, in questo quadro, coincide con la capacità di decidere e di cambiare, non con la chiusura.
Governi: costruire ecosistemi, non duplicare l’intero stack
Per le istituzioni, Neri indica una priorità: favorire un ecosistema in cui gli attori domestici possano contribuire con nodi essenziali — data center efficienti, ottimizzazione di modelli su domini specifici, implementazioni edge — evitando l’obiettivo, spesso irrealistico, di replicare ogni componente dello stack tecnologico. Tale impostazione rafforza la resilienza, sostiene lo sviluppo industriale locale e risulta coerente con gli impegni climatici.
La conseguenza più rilevante è che il contributo diventa possibile a ogni livello, permettendo a Paesi e aziende di specializzarsi secondo vantaggi comparati: disponibilità di energia rinnovabile, patrimoni di dati industriali, competenze verticali in sanità, oppure capacità regolatoria nella gestione delle informazioni sensibili. In questo modo, sovranità e competitività cessano di presentarsi come obiettivi confliggenti e assumono carattere complementare.
Un secondo atto che può ridurre la dipendenza strategica
La rivoluzione dell’intelligenza artificiale, nella lettura di Neri, è entrata in una fase in cui la distribuzione dell’intelligenza — tra cloud, data center regionali ed edge — consente di generare maggiore valore economico e, nello stesso tempo, di ridurre la dipendenza strategica. Per l’Europa e per l’Italia la sfida non è costruire una copia conforme dei modelli dominanti, bensì presidiare i punti in cui si crea valore, facendo leva su reti, infrastrutture e regole.
Se questa impostazione prenderà piede, la sovranità digitale smetterà di essere un costo da pagare per sentirsi protetti e diventerà un investimento per competere meglio: non come rinuncia all’apertura, ma come capacità di selezione, integrazione e controllo dei nodi critici.












