L’intelligenza artificiale e il calcolo ad alte prestazioni non sono più solo temi da laboratorio: stanno diventando rapidamente un’infrastruttura strategica per la competitività del Paese, al pari di reti, energia e logistica. In Italia il Tecnopolo di Bologna, il supercomputer Leonardo di Cineca, le iniziative Pnrr e i nuovi programmi europei stanno costruendo una “filiera” che va dalla grande infrastruttura pubblica fino alle startup e alle pmi. Ma la vera partita si gioca sulla capacità di trasformare potenza di calcolo in servizi accessibili, casi d’uso industriali e valore per i territori.
Marco Becca, DG Fondazione IFAB (International Foundation Big Data and Artificial Intelligence for Human Development) racconta dove l’Italia è già all’avanguardia – su infrastrutture, sostenibilità e integrazione europea – e dove invece restano anelli deboli: trasferimento tecnologico verso le imprese, modelli di collaborazione tra pubblico, telco e hyperscaler, governance dei dati e soprattutto capitale umano. Per capire come costruire un ecosistema dell’AI davvero europeo, aperto e competitivo, ma coerente con i nostri valori.
Becca, come valuta oggi la “filiera” italiana di AI e Hpc — dal Dama Tecnopolo di Bologna e il super Computer Leonardo fino a startup e pmi — in termini di maturità tecnologica, accesso alle risorse computazionali e trasferimento verso casi d’uso industriali?
La filiera italiana dell’AI e dell’Hpc è oggi tra le più avanzate in Europa e anche ben posizionata a livello mondiale per infrastrutture e competenze scientifiche, ma non ancora pienamente matura sul fronte del trasferimento industriale. Con il Dama Tecnopolo Data Manifattura Regione Emilia-Romagna, il supercomputer Leonardo di Cineca e ulteriori upgrade e la nascente AI Factory IT4LIA, disponiamo di un’infrastruttura di calcolo tra le più potenti e sostenibili al mondo. Peraltro IT4LIA eroga anche servizi e competenze per garantire che anche le realtà più piccole ed emergenti possano sfruttare le risorse avanzate di IA. Il vero valore nasce infatti quando la capacità computazionale si traduce in servizi accessibili e interoperabili per le imprese. Questa infrastruttura, peraltro, è pienamente connessa ed integrata a livello europeo, perché su tematiche come AI e HPC nessuno puo’ pensare di competere da solo e di creare “silos” nei vari paesi.
In questo scenario, a suo avviso, ci sono anelli deboli andrebbero rafforzati per fare scala?
L’anello debole è ancora troppo spesso l’interfaccia tra ricerca e mercato: servono piattaforme “user-friendly” e competenze diffuse nelle pmi per utilizzare AI e HPC come strumenti di business. IFAB sta lavorando proprio su questo: unire la potenza del calcolo con la capacità di portare l’AI nei processi reali, dalla manifattura all’agritech, fino alla sanità e ai servizi pubblici.
Pnrr, Ipcei e programmi EuroHpc: quali leve regolatorie e di investimento servono ora per accelerare l’adozione dell’AI generativa e dell’HPC “aperto” (multi-tenant) in Italia senza perdere di vista sovranità dei dati, sicurezza e sostenibilità energetica?
Il primo passo è semplificare l’accesso alle infrastrutture pubbliche di calcolo, aprendo i supercomputer a una platea più ampia di utenti – anche pmi e startup – attraverso modelli “multi-tenant” regolati da standard comuni di sicurezza e compliance. Serve poi una governance condivisa, che integri le diverse iniziative Pnrr, Ipcei e EuroHpc sotto un’unica strategia industriale nazionale per l’AI. Dopodichè sono i privati a dover portare avanti le iniziative, mettendo insieme le forze con modelli “consortili”, investendo essi stessi in infrastrutture (si stanno infatti creando diversi consorzi in grado di implementare le cd “Gigafactories” a trazione privata, per ridurre la dipendenza dagli hyperscalers, condividendo ove possibile dati e competenze, in un ottica anche di coopetition. Sul piano tecnico, l’Italia può distinguersi puntando su AI generativa trasparente e “green”, alimentata da infrastrutture HPC ad alta efficienza energetica; la sfida è trovare l’equilibrio tra apertura e controllo: un’AI competitiva ma conforme ai principi di fiducia, etica e sostenibilità che l’Europa ha posto come fondamento del proprio modello.
In questo scenario le telco possono giocare un ruolo abilitatore: in che modo reti 5G SA, edge computing e slicing possono diventare “co-processori” dell’AI per manifattura, sanità e PA?
Le telecomunicazioni sono oggi la spina dorsale dell’intelligenza artificiale distribuita. Il 5G standalone, il network slicing e l’edge computing trasformano la rete in un vero “co-processore dell’AI”, capace di eseguire l’inferenza vicino all’utente, con latenza minima e maggiore sicurezza. Ifab lavora su diversi casi d’uso che si collocano esattamente in questa convergenza: Edge AI per il monitoraggio predittivo di impianti industriali e infrastrutture critiche (progetto SAFE). Federated Learning per la collaborazione tra nodi distribuiti — ospedali, fabbriche, enti pubblici — senza scambio di dati sensibili (progetto FLaaS).
Oggi reti e data center sono sempre più sotto stress: quali strategie — dal raffreddamento a liquido all’uso di energie rinnovabili, dal peering locale all’ottimizzazione dei carichi AI — considera prioritarie per conciliare crescita di traffico AI/Hpc, costi energetici e obiettivi Esg nelle infrastrutture italiane?
La sostenibilità è oggi la condizione necessaria per la crescita dell’AI e dell’Hpc. Le priorità sono tre: efficienza energetica end-to-end, con l’adozione di tecnologie come il raffreddamento a liquido e l’utilizzo diretto di fonti rinnovabili; ottimizzazione dei carichi di lavoro AI con schedulazione dinamica su cloud e Hpc per ridurre i picchi di consumo; peering e calcolo locale, per trattenere il traffico dati vicino alla fonte e ridurre le perdite di rete. Il supercomputer Leonardo di Cineca è già alimentato da energia rinnovabile e integra sistemi avanzati di efficienza termica: un modello replicabile che può guidare la transizione Esg dei data center italiani. Guardando al futuro, l’ottimizzazione resa possibile dalla integrazione di Hpc e Quantum Computing potrà ulteriormente contribuire , per certe classi di problemi, ad ottimizzare l’uso delle risorse.
Abbiamo detto che l’Italia è all’avanguardia sul fronte tecnologico, ma sul capitale umano e standard abbiamo ancora qualche prpblema: dove rischiamo di restare indietro e quali iniziative Ifab intende promuovere per allineare ricerca, imprese e Tlc su competenze, benchmark e linee guida condivise?
Il vero “collo di bottiglia” non è più tecnologico, ma umano. Servono nuove competenze ibride — data scientist, ingegneri di rete, esperti di AI e governance dei dati — capaci di lavorare insieme. Il rischio è che la velocità dell’innovazione superi la capacità del sistema formativo di preparare queste figure. Con i nostri programmi di formazione e le iniziative con università e centri di ricerca, stiamo formando nuove professionalità su AI, Hpc e gestione etica dei dati. In parallelo, Ifab contribuisce ai gruppi di lavoro europei su standard aperti, interoperabilità e benchmark (Gaia-X, EuroHPC, AI Act), promuovendo una cultura della trasparenza e dell’interoperabilità anche nelle telecomunicazioni. Essendo questo un problema non solo di qualità ma anche di quantità – cioè poche risorse umane competenti – credo che il mondo degli Its possa dare un impulso positivo al settore, esprimendo giovani in grado di portare nelle imprese anche un bagaglio di competenze che magari in azienda non troveranno. Ifab sta lavorando in questa direzione con gli Its dell’Emilia Romagna, per formare giovani in grado di dare un valore aggiunto alle aziende che li assumeranno. Solo così potremo costruire un ecosistema realmente europeo, competitivo e coerente con i nostri valori.



































































