Governance e sovranità digitale saranno al centro delle strategie 2026 della PA. Il settore pubblico sarà chiamato a trasformare l’intelligenza artificiale da promessa a infrastruttura di decisione e servizio. Gli investimenti crescono, ma il recente IDC Data and AI Impact Report: The Trust Imperative commissionato da SAS segnala un divario ancora evidente rispetto al settore privato, soprattutto su infrastrutture e soluzioni affidabili. In parallelo, il quadro regolatorio evolve e rende più stringente la necessità di bilanciare innovazione e responsabilità. L’IA, per la PA, non sarà più un tema “di progetto”. Diventerà un tema di modello di governo su come si gestiscono dati, processi, rischi, competenze e accountability quando una parte crescente delle attività viene automatizzata o supportata da agenti intelligenti.
Indice degli argomenti
Ecosistemi nazionali, data center regionali e “Sovereign AI”: il controllo dei dati diventa politica industriale
È qui che la frase di apertura trova il suo senso più concreto. L’accelerazione verso ecosistemi nazionali di IA e data center regionali, con soluzioni di “Sovereign AI”, non è soltanto una scelta tecnologica. È una risposta a un contesto normativo in evoluzione, con l’AI Act europeo come riferimento, e a una crescente consapevolezza: chi controlla dati e potenza di calcolo controlla anche l’autonomia decisionale.
Nel settore pubblico questa dinamica è amplificata. I dati amministrativi, fiscali, sanitari e giudiziari hanno un valore strategico e una sensibilità che impongono criteri stringenti su localizzazione, accessi, conservazione e audit. “Sovranità” non significa chiusura, ma capacità di definire regole, garantire conformità e ridurre i rischi legati a dipendenze infrastrutturali. In questa cornice, l’adozione dell’IA si intreccia con scelte su cloud, ibrido ed edge, con la selezione dei modelli e con le modalità di addestramento, oltre che con gli strumenti di governance da implementare.
SAS e IDC richiamano anche un punto spesso sottovalutato: l’alfabetizzazione sull’IA. Il controllo infrastrutturale non basta. Serve una base diffusa di comprensione tra dirigenti, funzionari e operatori per valutare benefici e rischi. La fiducia si costruisce con competenza, chiarezza e accountability, non con dichiarazioni di principio.
Il “trust imperative” e il gap con il privato: affidabilità come condizione di adozione
Nella PA l’IA è già presente in molte sperimentazioni: automazioni documentali, classificazioni, assistenti informativi, analisi di flussi. Il passaggio decisivo riguarda la messa in esercizio su larga scala, con effetti diretti su procedimenti e servizi. Questo salto richiede basi solide: governo del dato, infrastrutture coerenti, modelli controllabili, auditabilità. È il senso dell’“imperativo della fiducia” evidenziato dal report IDC commissionato da SAS.
Il settore privato ha costruito prima piattaforme dati e capacità operative, spesso con architetture più omogenee e processi decisionali più rapidi. Molte amministrazioni, invece, devono gestire stratificazioni tecnologiche, frammentazione applicativa e vincoli organizzativi che rallentano l’industrializzazione. Nel 2026 la differenza non potrà più essere compensata con iniziative isolate. Senza una strategia integrata, l’innovazione rischia di restare episodica e di produrre nuove disuguaglianze tra enti “capaci” e enti “inermi”.
Forza lavoro potenziata dalla tecnologia: produttività senza dipendenza da customizzazione
Una tendenza chiave riguarda la ricerca di efficienza nella spesa. I governi proveranno a ridurre l’acquisto di tecnologie che richiedono consulenze complesse e soluzioni su misura, perché faticano a scalare e aumentano i costi di gestione. L’IA può cambiare la produttività quotidiana se accelera analisi e flussi di lavoro, consentendo ai dipendenti di ottenere risultati migliori con risorse limitate. L’effetto non nasce dalla sostituzione, ma dall’amplificazione: meno tempo su attività ripetitive, più tempo su valutazione, relazione con il cittadino e controllo di qualità.
Perché questo avvenga servono strumenti realmente adottabili, non solo disponibili. Conta l’esperienza settoriale incorporata nelle soluzioni, contano interfacce intuitive, conta la crescita delle competenze. Una PA che punta sull’IA senza preparare le persone aumenta il rischio di errori, rifiuto degli strumenti e dipendenza da pochi specialisti.
Trasparenza e spiegabilità: l’IA operativa non può restare una scatola nera
Con la transizione dai piloti all’uso operativo, la trasparenza diventa un requisito. Il tema si accentua con l’introduzione di agenti IA capaci di agire in autonomia dentro i processi. In un contesto pubblico, decisioni automatizzate devono restare spiegabili, verificabili e comprensibili. Non basta che “funzionino”: devono poter essere motivate e controllate, anche quando influenzano priorità, controlli, benefici o tempi di risposta.
La spiegabilità è anche una protezione per l’amministrazione. Riduce contenziosi, limita distorsioni e rende più chiara la catena di responsabilità. È qui che governance e trasparenza si saldano: definire cosa può essere automatizzato, quali attività richiedono sempre un intervento umano, quali log devono essere conservati, quali controlli anti-bias vanno resi standard.
IA agentica e assistenti virtuali: servizi più accessibili, ma solo se integrati nei processi
Nel 2026 è attesa una diffusione ampia di framework agentici e assistenti virtuali basati su IA tradizionale e generativa. L’obiettivo è alzare la qualità dell’interazione: gestione di richieste complesse, supporto multilingua, orchestrazione di workflow, risposte precise e contestuali. Se ben progettati, questi strumenti possono ridurre i tempi di attesa e migliorare l’accessibilità, soprattutto per chi oggi fatica a orientarsi tra portali e procedure.
Il rischio principale riguarda l’“effetto vetrina”: assistenti che comunicano bene ma non risolvono, perché non sono collegati a sistemi e processi. Esiste poi un rischio opposto: agenti troppo autonomi, privi di vincoli robusti e controlli. La direzione sostenibile passa da integrazione, tracciabilità e regole di ingaggio: l’IA deve guidare, precompilare, verificare coerenza e completezza, senza sostituire la responsabilità amministrativa.
Dati sintetici: accelerare innovazione e conformità quando i dati reali non bastano
Le amministrazioni dovranno affrontare scarsità di dati reali e limiti legati alla sovranità digitale. La disponibilità non coincide sempre con l’utilizzabilità: dati frammentati, qualità disomogenea, vincoli su accessi e condivisione possono bloccare ricerca, formazione e test. In questo scenario, i dati sintetici diventano una leva concreta. Consentono di creare dataset utili allo sviluppo e alla validazione, riducendo l’esposizione di informazioni personali o sensibili. SAS e IDC evidenziano la possibilità di generare anche dati testuali non strutturati, utili per addestrare modelli e stressare sistemi.
L’efficacia dipende dalle garanzie: validità statistica, prevenzione della re-identificazione, controlli sulle correlazioni. Con una governance rigorosa, i dati sintetici possono trasformarsi in un acceleratore di innovazione “sicura”, adatto a un contesto regolato come quello pubblico.
Competenze e “mentori digitali”: conoscenza come infrastruttura organizzativa
La trasformazione della forza lavoro non richiede solo skill tecniche. Richiede capacità di uso consapevole, lettura critica delle risposte, comprensione dei limiti. L’IA può diventare uno strumento di trasferimento della conoscenza, creando “mentori digitali” che aiutano a distribuire best practice, supportare l’onboarding e ridurre la dipendenza dalla memoria informale dei singoli uffici. Nel settore pubblico, dove prassi e procedure sono spesso complesse, questo supporto può aumentare coerenza e qualità.
Nel frattempo, emergeranno nuovi ruoli professionali in ambiti tecnologici, green e dei servizi alla persona, mentre alcune mansioni tradizionali si ridurranno. La gestione della transizione sarà parte integrante della governance: formazione, ridefinizione dei processi, criteri di responsabilità, dialogo sociale.
Frodi ed evasione: GenAI nelle mani sbagliate e IA come scudo per la PA
L’adozione della GenAI da parte di attori criminali rende più sofisticate truffe e strategie di evasione fiscale. Cambiano i linguaggi, cambiano le tecniche di social engineering, aumentano i documenti falsi credibili, crescono le identità simulate. Di fronte a questo scenario, la PA dovrà rafforzare sistemi di rilevamento frodi, verifica delle identità e analisi dei dati fiscali. Diventa decisiva anche la condivisione sicura delle informazioni tra enti, perché le frodi attraversano confini amministrativi.
L’IA, però, può potenziare capacità di contrasto: analisi in tempo reale, correlazioni tra fonti, rilevamento di pattern anomali, supporto alle indagini. Il valore dipende dalla qualità del dato e dai controlli: monitoraggio continuo, tracciabilità, protezione dei dati e riduzione dei bias.
Sorveglianza sanitaria: più valore dai dati e risposte più rapide alle emergenze
In sanità, l’IA può estrarre valore da dati non digitalizzati o non strutturati e migliorare la sorveglianza epidemiologica. Questo consente reporting più snello, meno duplicazioni e tempi di risposta più rapidi durante le emergenze. L’impatto riguarda anche la gestione ordinaria: individuare segnali deboli, ottimizzare flussi, supportare analisi su popolazioni.
Il presupposto resta la fiducia: qualità del dato, sicurezza, controllo degli accessi, audit. Senza queste basi, la velocità rischia di trasformarsi in vulnerabilità.
Un’agenda 2026: innovazione con responsabilità, senza perdere il controllo
Nel 2026 l’IA sarà un moltiplicatore di capacità per la PA solo se poggia su una struttura di governo solida. Il report IDC commissionato da SAS mette in fila le tensioni principali: investimenti in aumento, ma gap infrastrutturali; pressione all’adozione, ma bisogno di trasparenza; promesse di produttività, ma necessità di competenze; nuove opportunità per i servizi, ma rischi crescenti su frodi e sicurezza. Il filo che tiene insieme tutto è uno: governance e sovranità digitale come condizione per innovare mantenendo responsabilità pubblica. Quando l’algoritmo entra nei processi dello Stato, la responsabilità non si sposta. Diventa più esigente.












