l’approfondimento

Intent by Design: come proteggere l’AI autonoma



Indirizzo copiato

Nel workspace agentico, dove persone e agenti AI condividono dati, strumenti e sistemi, per Cio e Ciso la sfida non è più solo controllare gli accessi. Il nuovo fronte della sicurezza è verificare in tempo reale che le azioni dell’AI restino coerenti con l’intento originario e con le policy aziendali

Pubblicato il 20 mar 2026

Sumit Dhawan

CEO, Proofpoint



AI-intelligenza-artificiale

L’AI è ormai integrata nel modo di operare quotidiano delle aziende. I copilot assistono i dipendenti in tempo reale. Gli agenti autonomi recuperano dati, generano contenuti, scrivono codice ed eseguono flussi di lavoro attraverso i sistemi aziendali. Le funzionalità di AI sono integrate direttamente nelle piattaforme di collaborazione, negli strumenti di sviluppo e nelle principali applicazioni di business.

Questo è il workspace agentico: un ambiente in cui persone e agenti AI operano fianco a fianco, accedendo agli stessi dati e sistemi. Per CIO e CISO, tutto ciò introduce un nuovo imperativo in termini di sicurezza e governance, per cui la maggior parte delle organizzazioni non è ancora pronta.

Il gap nella governance dell’AI

Secondo il report 2025 State of AI Security di Acuvity (oggi parte di Proofpoint), circa il 70% delle aziende ha ammesso di avere lacune nella governance dell’AI, e circa il 50% prevede perdite di dati a essa legate entro i prossimi 12 mesi. Con la diffusione degli agenti AI nei flussi di lavoro aziendali, questa lacuna non è più un rischio teorico: è una realtà operativa.

Il problema di fondo è strutturale. La maggior parte delle architetture di sicurezza è stata progettata per rispondere a domande pragmatiche: questo utente ha i permessi di accesso? Il dispositivo è affidabile? Il traffico è autorizzato? Sono domande legittime, ma insufficienti per il nuovo contesto.

L’AI autonoma cambia radicalmente l’equazione del rischio. Una singola richiesta a un agente AI può innescare decine di azioni a cascata su email, cloud storage, sistemi CRM e repository di codice, spesso a velocità macchina e con supervisione umana limitata. Un agente può operare interamente all’interno dei permessi autorizzati e, nonostante questo, compiere azioni non allineate con la finalità originaria della richiesta.

È la cosiddetta semantic privilege escalation: azioni tecnicamente consentite, ma contestualmente inappropriate. Gli strumenti esistenti possono validare le credenziali e monitorare il traffico, ma non sono stati progettati per determinare se il comportamento dell’AI sia coerente con l’intento che ha originato l’azione.

Dal controllo degli accessi alla verifica dell’intento

Ci aspettiamo che gli esseri umani operino con integrità quando utilizzano i sistemi aziendali: sono responsabili dell’allineamento delle proprie azioni con gli scopi del business. Gli agenti AI devono essere governati secondo lo stesso standard.

Il problema è che i sistemi AI non comprendono intrinsecamente l’intento. Eseguono istruzioni nei limiti dei permessi e ottimizzano in funzione degli obiettivi, ma non distinguono tra ciò che è permesso e ciò che è appropriato nel contesto.

La sicurezza basata sull’intento affronta questa sfida in modo diretto, valutando in modo continuo se il comportamento dell’AI – avviato autonomamente o da un utente umano – è allineato con la richiesta originaria e le policy aziendali. Si tratta di un cambiamento di paradigma: dalla validazione dell’accesso a quella dell’allineamento, dall’applicazione di policy statiche alla verifica in tempo reale, dall’indagine reattiva al controllo continuo.

Un framework per l’integrità degli agenti

Per rendere operativo questo cambiamento, è necessario un framework strutturato che garantisca l’integrità degli agenti: la certezza che un agente AI operi nei limiti della propria finalità prevista, dei permessi autorizzati e del comportamento atteso, in ogni interazione, chiamata agli strumenti e accesso ai dati.

Questo framework deve poggiare su cinque pilastri fondamentali: allineamento all’intento, identità e attribuzione, coerenza comportamentale, verificabilità e trasparenza operativa. A questi si affianca un modello di maturità in cinque fasi, che guida le organizzazioni dalla fase iniziale di discovery fino all’applicazione delle policy in tempo reale.

Per CIO e CISO, questo si traduce in una guida operativa concreta: la fiducia negli agenti è l’obiettivo; l’integrity framework fornisce il modello di governance; la sicurezza basata sull’intento è il motore di enforcement. Tre livelli che si rinforzano a vicenda e che insieme definiscono il nuovo piano di controllo del workspace agentico.

Una protezione unificata per persone, dati e AI

Definire il framework non basta: occorre dargli concretezza attraverso una piattaforma di sicurezza unificata e basata sull’intento, capace di proteggere le interazioni – umane e agentiche – con sistemi, dati e strumenti AI in tutta l’azienda.

Il punto di partenza è quello che dovrebbe essere il centro di qualsiasi strategia di sicurezza aziendale: le persone. Il dinamismo del panorama delle minacce ha reso inefficaci le regole statiche, imponendo un passaggio verso modelli di rilevamento basati sull’intento e sul comportamento, capaci di analizzare le comunicazioni e il modo in cui gli utenti interagiscono con i dati sensibili. È da questa base che si affrontano con successo le problematiche più critiche e attuali. Secondo il Ponemon Institute, il costo medio annuo degli incidenti legati al rischio insider ha superato i 17 milioni di dollari nel 2025, con oltre il 60% degli episodi riconducibili a errori umani o account compromessi – a conferma che la sicurezza della collaboration, la gestione del rischio insider e la prevenzione della perdita di dati restano le sfide operative più pressanti per i team di sicurezza aziendali.

Con l’integrazione dell’AI nei flussi di lavoro, questo modello deve estendersi anche ai dati. Capacità agentiche dedicate alla governance delle informazioni negli ambienti AI permettono di affrontare su larga scala le esigenze di discovery, classificazione e controllo degli accessi, identificando dinamicamente i dati sensibili e garantendo che siano accessibili solo alle persone giuste e agli agenti autorizzati. A differenza degli approcci rigidi basati su policy statiche, questi sistemi si adattano man mano che i dati si muovono ed evolvono all’interno dell’organizzazione.

Il passo finale e più complesso è quello di governare il comportamento dell’AI stesso. I sistemi AI non si limitano ad accedere alle informazioni: ragionano e agiscono su sistemi connessi. Questo richiede visibilità nativa e protezione runtime basata sull’intento su endpoint, browser e connessioni tra agenti, completando così una copertura coerente su persone, dati e AI.

L’integrità come nuovo standard operativo

Con l’accelerazione dell’adozione dell’AI, le aziende non dovrebbero essere costrette a scegliere tra velocità e sicurezza. La domanda rilevante non è più se un agente abbia i permessi di accesso, ma se sia possibile verificare in modo continuo che il suo comportamento sia allineato con l’intento originario, a velocità macchina, su ogni sistema coinvolto.

In questo senso, la sicurezza basata sull’intento e l’integrità degli agenti non sono semplici funzionalità tecnologiche: sono una capacità strategica fondamentale per chiunque voglia governare, e non subire, l’era dell’AI autonoma.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x