Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

CYBERSECURITY

L’allarme del Mit: “Così gli algoritmi potranno manipolare le elezioni”

Il 2019 potrà registrare il boom di tecnologie AI in grado di condizionare equilibri geopolitici, finanza, mondo del lavoro: “Gli esperti di sicurezza si concentrino sulle nuove minacce”

14 Gen 2019

Dagli incidenti con le smart car ai video fake fino all’influenza sul voto in vista delle elezioni. Sono molteplici i rischi principali che l’Intelligenza artificiale si troverà ad affrontare nel 2019. Scatta la fotografia la rivista del Massachusetts Institute of Technology, che richiama a un maggior controllo sulle applicazioni e nuove tecnologie. “Le ultime applicazioni dell’AI sono eccellenti in compiti ‘percettivi’ come classificare immagini e trascrivere discorsi – si legge sulla rivista -, ma il battage dovuto a queste nuove capacità ci hanno fatto dimenticare quanto siamo lontani dal costruire macchine intelligenti quanto noi”.
I rischi paventati dagli esperti derivano da problemi già visti nel 2018, ma che potrebbero ripetersi in misura maggiore.

Tra i pericoli che emergono, quelli riguardanti le auto a guida autonoma: un prototipo che già nel 2018 ha causato un incidente mortale, problema che potrebbe ripetersi dato il boom di sperimentazioni in corso.

Un altro rischio è che le intelligenze artificiali influenzino il risultato di elezioni politiche nel mondo attraverso i bot, algoritmi addestrati a ‘usare’ i social. Questo potrebbe avvenire in paesi con scadenze elettorali quest’anno come la Nigeria, ma può succedere anche negli Usa.

“La lunga corsa verso le presidenziali del 2020 è già iniziata – spiegano gli esperti del Mit -, e potrebbe ispirare nuovi tipi di tecnologie per la disinformazione”. Altro settore molto delicato da tenere d’occhio nel 2019 è quello del riconoscimento facciale, già usato da diverse polizie, che può portare a grandi violazioni della privacy.

Attenzione infine alle discriminazioni di razza e genere intrinseche negli algoritmi, rischio già emerso in molti studi, e che può creare problemi ad esempio se l’AI si usa per le selezioni per un posto di lavoro.

Focus sui deep fake, video fasulli, spesso pornografici, creati con l’intelligenza artificiale, talmente perfetti da sembrare veri, che potrebbero coinvolgere personaggi famosi. Per esempio le e-mail di “phishing” generate dall’AI che mirano a ingannare le persone sottraendo password e altri dati sensibili hanno già dimostrato di essere più efficaci  di quelle generate dagli esseri umani. Ora gli hacker saranno in grado di diffondere video e audio falsi altamente realistici.

Non basta: i criminali informatici potrebbero anche utilizzare la nuova tecnologia per manipolare i prezzi delle azioni, ad esempio postando un video falso di un amministratore delegato che annuncia che l’azienda si trova ad affrontare un problema finanziario o altri tipi di crisi. C’è anche il rischio che attacchi del genere possano essere usati per diffondere notizie false a ridosso di elezioni e per alimentare tensioni geopolitiche. “Una volta stratagemmi simili avrebbero richiesto le risorse di un grande studio cinematografico – si legge nella rivista -, ma ora possono essere sfruttati da chiunque abbia un computer decente e una potente scheda grafica”. Le startup stanno sviluppando una tecnologia  per rilevare i deep fake, ma non è chiaro quanto saranno efficaci i loro sforzi. Nel frattempo, l’unica vera linea di difesa è la sensibilizzazione degli utenti.

@RIPRODUZIONE RISERVATA
Argomenti trattati

Approfondimenti

A
AI
C
cybersecurity
M
mit

Articolo 1 di 5