la guida

Agenti AI, boom nelle aziende italiane: ma la sicurezza deve diventare “nativa”



Indirizzo copiato

Dall’integrazione nell’infrastruttura di identità alla gestione dei privilegi, ecco cosa devono presidiare i Ci per definire controlli, recuperabilità e osservabilità e governare l’autonomia degli agenti AI senza compromettere dati e continuità operativa.ù

Pubblicato il 23 feb 2026



agentic AI telco

Gli agenti AI hanno lasciato il segno in molte organizzazioni italiane nel 2025, entrando non solo nei workflow, ma soprattutto nelle infrastrutture di identità, cioè in quel livello che abilita accessi, autorizzazioni e operazioni sui sistemi critici. Una ricerca condotta dai Rubrik Zero Labs su 1.625 responsabili della sicurezza IT in aziende con 500 o più dipendenti evidenzia che il 94% delle organizzazioni italiane ha già integrato completamente o parzialmente gli agenti AI nella propria infrastruttura di identità, un dato superiore alla media EMEA (89%).

Il punto, però, non è soltanto l’adozione. È il “come” questi agenti operano: con un’autonomia crescente e con un’influenza sempre più diretta sui processi fondamentali per il business. Ed è qui che si apre il tema più delicato: un agente AI che prende decisioni autonome può mettere a repentaglio dati, sistemi o business continuity, introducendo una nuova superficie di rischio che i CISO non possono trattare come una semplice estensione dell’automazione tradizionale.

Il warning di Gartner: progetti ritirati se rischi e costi sfuggono di mano

La pressione non arriva solo dal campo. Secondo Gartner, il 40% dei progetti di agenti AI verrà ritirato entro la fine del 2027 a causa di rischi troppo elevati o costi fuori controllo. Il messaggio è chiaro: più si concede autonomia, più bisogna anticipare i controlli, non inseguire gli incidenti. Proprio perché agli agenti vengono riconosciuti privilegi sempre più incisivi, diventa fondamentale garantire che sicurezza informatica e controlli siano implementati prima della distribuzione.

In altre parole, la strategia AI “a prova di futuro” non può basarsi su aggiustamenti progressivi dopo il go-live: serve un’impostazione progettuale in cui protezione e recuperabilità siano parte dell’architettura, non un add-on.

Secure by Design e recuperabilità: la resilienza come prerequisito

Filip Verloy, Cto Emea & Apj Rx di Rubrik, richiama un principio che nel mondo cyber è ormai un cardine: “Secure by Design”. Tradotto: sicurezza e affidabilità non si “attaccano” in coda, ma si integrano fin dall’inizio, assicurando che ciò che l’agente fa sia spiegabile e reversibile dal primo giorno. È una distinzione che pesa, perché nel caso degli agenti AI il problema non è solo prevenire l’errore, ma essere pronti a gestirlo quando inevitabilmente accade.

Da qui discende la necessità di una vera preparazione al ripristino. Perché conservare solo i log non basta: quando un agente sbaglia, l’azienda deve poter ricostruire con precisione la sequenza degli eventi e soprattutto tornare rapidamente allo stato precedente, salvaguardando la continuità operativa. In questo scenario, le capacità di data recovery diventano parte integrante della governance dell’AI, non un capitolo separato di disaster recovery.

Quando gli agenti collaborano, gli errori si propagano

Un altro cambio di paradigma riguarda la dinamica “di rete” degli agenti: spesso lavorano in concerto, scambiandosi output, trigger e autorizzazioni. Questo significa che un’anomalia può propagarsi rapidamente, trasformando un inciampo in un incidente sistemico. Per questo, l’architettura deve puntare alla tolleranza ai guasti multipli, isolando per quanto possibile le azioni degli agenti e impedendo che un singolo errore generi interruzioni operative diffuse.

In sostanza, progettare sistemi agentici richiede la stessa mentalità dei sistemi distribuiti: ridondanza, contenimento, compartimentazione. Solo che qui la variabile aggiuntiva è la velocità: l’agente non “si ferma a riflettere”, continua ad agire.

Permessi e privilegi: trattare l’agente AI come un “super-utentE” sotto controllo

Se c’è un punto che impatta direttamente la postura di sicurezza, è la gestione degli accessi. Gli agenti AI possono compiere azioni incontrollate a velocità sovrumana e, come ricorda il testo, incidenti recenti mostrano conseguenze molto diverse, dai malfunzionamenti tecnici ai problemi legali fino all’eliminazione accidentale di interi database di produzione.

La risposta proposta è netta: classificare i permessi degli agenti come accesso privilegiato. Significa applicare lo stesso rigore che si usa con account amministrativi e ruoli sensibili: concedere all’agente solo l’accesso realmente necessario, con un controllo degli accessi rigoroso, soprattutto quando entrano in gioco dati dei clienti o processi mission-critical. Qui l’autonomia non può diventare sinonimo di libertà: deve restare dentro confini verificabili.

Osservabilità end-to-end: non basta vedere i log, serve poter “invertire” le azioni

Infine, c’è la dimensione della visibilità. Rubrik segnala, sulla base di conversazioni con i clienti, che meno del 10% delle aziende dispone di capacità di analisi forense AI. E senza analisi forense – cioè senza la possibilità di ricostruire, attribuire, capire – la sicurezza resta parziale: si nota l’effetto, non la causa.

La direzione indicata è una osservabilità completa: poter osservare e verificare l’intero processo, dal prompt iniziale al risultato finale, così da tracciare ciò che è accaduto e intervenire o invertire le azioni quando necessario. È un passaggio cruciale, perché nell’era agentica la promessa non è solo “monitorare”, ma rendere reversibile l’impatto operativo delle decisioni automatiche, andando oltre i log tradizionali.

Limiti, monitoraggio continuo e resilienza “prima del panico”

Verloy sintetizza il cambio di approccio richiesto con una dichiarazione che fotografa bene l’urgenza del momento:

“Gli agenti AI falliscono in modi che non abbiamo mai visto prima, richiedendo un approccio completamente nuovo alla sicurezza informatica. Sono sistemi autonomi e dinamici: solo stabilendo proattivamente dei limiti, monitorando continuamente il loro comportamento e promuovendo la collaborazione tra discipline, le organizzazioni potranno sfruttare il potere degli agenti AI in modo sicuro ed efficace. Le aziende che sopravvivranno all’era degli agenti saranno quelle che abbracceranno l’innovazione e saranno preparate agli errori. È il momento di costruire resilienza, prima che gli agenti AI vadano nel panico e prendano decisioni sbagliate”, afferma Verloy.

In pratica l’adozione non è più il vero discrimine. La differenza la farà chi saprà trasformare l’autonomia in valore senza trasformarla in vulnerabilità. E questo passa da una parola che nel mondo AI rischia di sembrare “vecchia”, ma che oggi è più attuale che mai: resilienza.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x