IL RAPPORTO

Auto senza pilota, appello di Enisa: “La sicurezza sia by design”

L’Agenzia dell’Unione europea per la cybersicurezza esamina i rischi informatici connessi all’uso dell’intelligenza artificiale nei veicoli a guida autonoma: “Serve un monitoraggio costante delle componenti durante tutto il ciclo di vita delle vetture”

Pubblicato il 12 Feb 2021

guida autonoma

Rimuovendo la causa più comune di incidenti stradali, il conducente umano, i veicoli autonomi dovrebbero ridurre gli incidenti stradali e le vittime. Tuttavia, possono rappresentare un tipo di rischio completamente diverso per conducenti, passeggeri e pedoni. I veicoli autonomi utilizzano sistemi di Intelligenza artificiale (AI), che impiegano tecniche di apprendimento automatico per raccogliere, analizzare e trasferire dati, al fine di prendere decisioni che nelle auto convenzionali vengono prese dagli esseri umani. Questi sistemi, come tutti i sistemi informatici, sono vulnerabili ad attacchi che potrebbero compromettere il corretto funzionamento del veicolo.
Un nuovo rapporto dell’Agenzia dell’Unione europea per la cybersicurezza (Enisa) e del Centro comune di ricerca (Ccr) fa luce sui rischi per la sicurezza informatica legati alla diffusione dell’intelligenza artificiale nei veicoli autonomi e fornisce raccomandazioni per mitigarli.

Vulnerabilità dell’AI nei veicoli autonomi

I sistemi di intelligenza artificiale di un veicolo autonomo lavorano senza sosta per riconoscere segnali stradali e segnaletica orizzontale, per rilevare veicoli, stimarne la velocità, per pianificare il percorso da percorrere. A parte minacce non intenzionali, come malfunzionamenti improvvisi, questi sistemi sono vulnerabili ad attacchi intenzionali che hanno lo scopo specifico di interferire con il sistema di intelligenza artificiale e di interrompere le funzioni critiche per la sicurezza.
L’aggiunta di vernice sulla strada per fuorviare la navigazione o adesivi su un segnale di stop per impedirne il riconoscimento sono esempi di tali attacchi. Queste alterazioni possono portare il sistema di intelligenza artificiale a classificare erroneamente gli oggetti e, successivamente, il veicolo autonomo a comportarsi in un modo che potrebbe essere pericoloso.

Al fine di migliorare la sicurezza dell’AI nei veicoli autonomi, il rapporto contiene diverse raccomandazioni, una delle quali è che le valutazioni della sicurezza dei componenti dell’AI vengano eseguite regolarmente durante il loro ciclo di vita. Questa convalida sistematica dei modelli e dei dati di AI è essenziale per garantire che il veicolo si comporti sempre correttamente di fronte a situazioni impreviste o attacchi dannosi.
Un’altra raccomandazione è che i processi continui di valutazione del rischio supportati dall’intelligence sulle minacce potrebbero consentire l’identificazione di potenziali rischi di intelligenza artificiale legati alla diffusione dell’AI nella guida autonoma. Politiche di sicurezza dell’AI adeguate e una cultura della sicurezza dell’intelligenza artificiale dovrebbero governare l’intera catena di fornitura per il settore automobilistico.

L’industria automobilistica, si dice ancora, dovrebbe adottare un approccio security by design per lo sviluppo e l’implementazione di funzionalità di intelligenza artificiale, in cui la sicurezza informatica diventa l’elemento centrale del design digitale sin dall’inizio. Infine, è importante che il settore automobilistico aumenti il suo livello di preparazione e rafforzi le sue capacità di risposta agli incidenti per gestire i problemi di sicurezza informatica emergenti legati all’AI.

Sicurezza come prerequisito per la circolazione dei veicoli

“Quando un veicolo autonomo insicuro attraversa il confine di uno Stato membro dell’Ue, lo stesso accade per le sue vulnerabilità. La sicurezza non dovrebbe essere un ripensamento, ma piuttosto un prerequisito per lo spiegamento affidabile di veicoli sulle strade europee “, afferma Juhan Lepassaar, direttore esecutivo dell’Agenzia dell’Ue per la sicurezza informatica.

“ È importante che le normative europee garantiscano che i vantaggi della guida autonoma non siano controbilanciati da rischi per la sicurezza. Per supportare il processo decisionale a livello dell’Ue, il nostro rapporto mira ad aumentare la comprensione delle tecniche di intelligenza artificiale utilizzate per la guida autonoma e dei rischi per la sicurezza informatica ad esse connessi, in modo che possano essere prese misure per garantire la sicurezza dell’AI nella guida autonoma “, aggiunge Stephen Quest, direttore generale del Ccr.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati