L’intelligenza artificiale non è più soltanto un acceleratore tecnologico ma anche un catalizzatore di minacce sempre più sofisticate. È questo l’allarme lanciato da Check Point Research nel nuovo “AI Security Report 2025”, presentato alla Rsa Conference di San Francisco. Il documento evidenzia una trasformazione epocale nella cybersecurity, dove l’AI viene sfruttata dai cybercriminali per aumentare la portata, la credibilità e l’automazione degli attacchi. Una dinamica che impatta direttamente anche il comparto telco, chiamato a potenziare le difese digitali in un contesto in cui l’identità stessa degli utenti può essere replicata in tempo reale da modelli generativi.
Il report di Check Point dipinge un quadro inquietante: phishing automatizzati, impersonificazioni vocali, deepfake visivi, malware scritti da chatbot maligni, disinformazione diffusa con tecniche AI, fino alla nascita di veri e propri “gemelli digitali”, entità virtuali capaci di imitare comportamenti e linguaggi umani per scopi fraudolenti.
“L’adozione rapida dell’IA da parte dei cybercriminali sta già rimodellando il panorama delle minacce”, afferma Lotem Finkelstein, Director of Threat Intelligence di Check Point. “Tutti i segnali indicano un cambiamento imminente: l’ascesa dei gemelli digitali. Questi non sono solo sosia o imitazioni vocali, ma repliche guidate dall’IA capaci di imitare il pensiero e il comportamento umano”.
Indice degli argomenti
La nuova anatomia delle minacce
L’analisi di Check Point individua quattro aree critiche su cui si sta costruendo il nuovo arsenale digitale del cybercrime:
- La prima è l’ingegneria sociale AI-powered: email di phishing scritte in linguaggio naturale perfetto, imitazioni vocali convincenti, messaggi WhatsApp e social ingannevoli sono ormai indistinguibili da quelli autentici. I modelli generativi permettono anche la creazione istantanea di siti clone, aumentando il tasso di successo delle truffe.
- La seconda riguarda il cosiddetto “AI poisoning”, cioè la manipolazione dei dataset di addestramento dei modelli. Attori malevoli riescono così a influenzare il comportamento dei sistemi AI aziendali, diffondendo risposte errate, contenuti manipolati o vulnerabilità codificate.
- Il terzo pilastro è il malware generato da AI: grazie a chatbot come FraudGpt e WormGpt, i criminali possono scrivere codice malevolo avanzato senza conoscenze tecniche, aumentando il numero e la qualità delle minacce circolanti. Questi strumenti sono in vendita nei forum del dark web, con pacchetti “as-a-service” che abbassano la barriera d’ingresso al crimine digitale.
- Infine, il modello stesso diventa target o risorsa. Sistemi LLM (large language model) possono essere sfruttati da chi riesce ad accedere alle loro API in modo improprio. Questo apre scenari di “AI hijacking”, in cui l’intelligenza artificiale di un’azienda viene utilizzata contro di essa.
Telco e infrastrutture critiche: rischio sistemico
Le telecomunicazioni sono un settore nevralgico in questo scenario. Le reti rappresentano non solo un’infrastruttura di comunicazione, ma anche il veicolo su cui viaggiano attacchi sofisticati, codici malevoli e pacchetti manipolati. Inoltre, le telco sono tra i principali abilitatori di AI in mobilità, attraverso edge computing, 5G e cloud distribuito.
L’impatto della nuova ondata di minacce AI-driven si estende anche alle architetture di rete, alle interfacce uomo-macchina e alle piattaforme di customer service, sempre più alimentate da intelligenze artificiali conversazionali. Un attacco ai modelli AI implementati nei chatbot delle telco, ad esempio, può causare frodi su larga scala e perdita di fiducia da parte degli utenti.
“Il mondo telco deve smettere di pensare alla sicurezza come a un layer verticale e adottare invece una visione trasversale e proattiva, centrata sul rischio AI”, spiega Finkelstein. “Occorre proteggere i modelli, validare i dataset e segmentare le Api, altrimenti l’intera catena del valore sarà vulnerabile”.
Difendersi con l’intelligenza: i nuovi paradigmi
Di fronte a una minaccia così adattiva, anche la difesa deve diventare intelligente. Check Point propone una strategia su tre livelli: rilevamento proattivo delle anomalie nei modelli, protezione del ciclo di vita dell’IA (training, inferenza, output) e governance delle interfacce. Serve inoltre un nuovo approccio al monitoraggio continuo, capace di comprendere non solo il traffico, ma anche il contenuto generato e le intenzioni comunicative dell’utente.
La sfida è duplice: costruire un ecosistema AI resiliente e proteggere gli utenti dalla manipolazione dei contenuti. L’educazione digitale diventa quindi parte integrante della difesa: sapere come riconoscere un deepfake, comprendere le dinamiche delle chatbot, diffidare delle comunicazioni troppo perfette.
AI Security come nuovo perimetro strategico
Il report di Check Point segna una linea di demarcazione. La cybersecurity non può più prescindere dall’intelligenza artificiale, né sul fronte offensivo né su quello difensivo. I gemelli digitali, il malware generativo e la manipolazione dei modelli non sono ipotesi futuristiche, ma realtà attuali che impongono un ripensamento profondo dei paradigmi di sicurezza.
Per il settore telco, l’impatto è duplice: da un lato, le aziende devono proteggere i propri asset digitali, dall’altro, devono diventare garanti della fiducia nell’intero ecosistema digitale. In un mondo in cui tutto è replicabile, la sicurezza torna a essere un valore strategico.