CYBERSECURITY

Non solo deep fake, ecco come l’AI trasforma il cybercrime

Gli hacker sfruttano sistemi basati sull’intelligenza artificiale anche per realizzare attacchi di ingegneria sociale su larga scala, progettare malware per il furto di documenti e lanciare attacchi ransomware che sfruttano una profilazione intelligente. Lo studio di Europol, Unicri e Trend Micro

Pubblicato il 01 Dic 2020

artificial-intelligence-robot-ai-trojan

L’intelligenza artificiale può essere sfruttata sia come vettore che come superficie di attacco e le minacce che si basano su questa tecnologia si stanno evolvendo, da “semplici” Deep Fake ad attacchi sempre più complessi. Il dato emerge dal report “Malicious Uses and Abuses of Artificial Intelligence”, realizzato da Europol, United Nations Interregional Crime and Justice Research Institute (Unicri) e Trend Micro. Lo studio approfondisce il presente e i possibili scenari futuri dell’utilizzo dell’intelligenza artificiale in ambito cybercriminale e si propone come uno strumento per aiutare le organizzazioni pubbliche, private e le Forze dell’Ordine a mitigare i rischi.

“La promessa dell’intelligenza artificiale è quella di una grande efficienza, automazione e autonomia. Nel momento in cui il grande pubblico è sempre più preoccupato sull’utilizzo di questa tecnologia, però, dobbiamo essere completamente trasparenti circa le possibili minacce, non focalizzarci solo sui benefici che ci può portare – spiega Edvardas Šileris, Head of Europol’s Cybercrime Centre – Questo studio ci aiuterà ad anticipare i possibili utilizzi malevoli dell’intelligenza artificiale ma anche a prevenire e mitigare le minacce in maniera proattiva. In questo modo possiamo sfruttare il potenziale dell’intelligenza artificiale e trarre benefici”.

I cybercriminali utilizzeranno l’intelligenza artificiale sia come vettore che come superficie di attacco. I Deep Fake sono al momento l’esempio più famoso dell’utilizzo dell’IA come vettore di attacco, e presto, sempre basate su questa tecnologia, verranno progettate nuove campagne di disinformazione ed estorsione che renderanno necessari nuovi strumenti di screening.

L’intelligenza artificiale, inoltre, potrebbe essere utilizzata per:

  • Realizzare attacchi di ingegneria sociale su larga scala
  • Progettare malware per il furto di documenti con lo scopo di rendere gli attacchi più efficaci
  • Evitare il riconoscimento facciale o biometrico
  • Lanciare attacchi ransomware che sfruttano una profilazione intelligente
  • Inquinare i dati, identificando falle nelle regole di rilevamento

“Nel momento in cui le applicazioni dell’intelligenza artificiale iniziano ad avere un impatto maggiore nel mondo reale, appare chiaro come questa sarà una tecnologia fondamentale per il futuro – sottolinea Irakli Beridze, Head of the Centre for AI and Robotics at Unicri – Ma non sono solo i benefici dell’IA ad essere reali, purtroppo lo sono anche i rischi. Siamo orgogliosi di essere partner di Europol e Trend Micro nel portare un po’ di luce nel lato oscuro dell’IA, stimolando ulteriori discussioni sull’argomento”.

Lo studio avverte anche che i sistemi di intelligenza artificiale sono sviluppati per migliorare l’efficacia dei malware e per bloccare i sistemi anti-malware o di riconoscimento facciale.

“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste. Come sottolinea lo studio è già utilizzata per indovinare password, rompere Captcha e clonare le voci, ma altri utilizzi sono in via di definizione – spiega Vincenzo Ciancaglini, Senior Threat Researcher di Trend Micro – Siamo molto soddisfatti di fare squadra con Europol e Unicri per aumentare il livello di consapevolezza su queste minacce, creando un futuro digitale più sicuro per tutti”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati