IL DOCUMENTO

Riconoscimento facciale, frenata della Ue: al vaglio ban di 5 anni

La Commissione europea potrebbe stoppare l’uso delle tecnologie biometriche nei luoghi pubblici: serve prima una regulation che garantisca un’applicazione etica e trasparente dell’AI

Pubblicato il 17 Gen 2020

riconoscimento-facciale

La Commissione europea potrebbe imporre un bando temporaneo contro l’impiego delle tecnologie di riconoscimento facciale in Europa da parte sia di aziende pubbliche che private: le misure sono contenute in un white paper sull’intelligenza artificiale, ancora in forma di bozza e visionato dal sito Euractiv.

Se le misure saranno confermate i progetti di implementazione del riconoscimento facciale automatico di tutti in paesi dell’Ue sarebbero messi in stand-by. Tra le nazioni più impattate c’è la Germania, che ha in piano di utilizzare l’AI per il riconoscimento dei volti in 134 stazioni ferroviarie e 14 aeroporti. Anche la Francia sta studiando un quadro legale che possa permettere di incorporare la biometria nei sistemi di videosorveglianza. In Italia l’aeroporto internazionale di Roma-Fiumicino sta testando una tecnologia di riconoscimento facciale dei passeggeri nel sistema di accettazione e imbarco. 

Il documento della Commissione europea, che contiene le proposte di Bruxelles su come affrontare le sfide poste dalle applicazioni dell’intelligenza artificiale, indica che un prossimo quadro regolatorio sull’AI potrebbe “includere un divieto temporeaneo di utilizzo della tecnologia di riconoscimento facciale negli spazi pubblici”.  E ancora: “L’impiego della tecnologia di riconoscimento facciale da parte di attori privati o pubblici negli spazi pubblici sarebbe proibito per un periodo definito (per esempio 3–5 anni) durante il quale potrebbe essere individuata e sviluppata una solida metodologia per valutare gli impatti di questa tecnologia e possibili misure di gestione del rischio“.

Cinque opzioni sul tavolo

La bozza del white paper sull’AI, la cui versione definitiva dovrebbe essere pubblicata dalla Commissione europea alla fine di febbraio, presenta cinque opzioni regolatorie per l’intelligenza artificiale nell’Ue.

La prima è una sorta di compliance su base volontaria: gli sviluppatori possono scegliere di aderire a determinate norme sull’AI etico e otterrebbero un’etichetta che certifica l’affidabilità e sicurezza del prodotto e che vincola a rispettare precisi requisiti.

Oppure potrebbero essere previsti requisiti specifici solo per la pubblica amministrazione e il riconoscimento facciale: l’Ue potrebbe adottare un approccio simile a quello del Canada con la sua Directive on automated decision making, che fissa gli standard minimi per le agenzia governative che vogliono usare sistemi automatizzati per il riconoscimento biometrico finalizzato ad assumere decisioni. Il Gdpr europeo accorda ai cittadini “il diritto a non essere soggetti a una decisione basata esclusivamente sull’elaborazione automatizzata, inclusa la profilazione”.

Terza opzione che Bruxelles considera sono dei requisiti obbligatori basati sul livello di rischio. I settori “sensibili” includono sanità, trasporti, forze di polizia e autorità giudiziaria, dove il potenziale di arrecare danno fisico o materiale all’individuo è maggiore.

Quarto aspetto allo studio è quello della sicurezza e responsabilità (liability): Bruxelles scrive che potrebbero essere necessari adeguamenti normativi o legali per definire la responsabilità che ricade sulle aziende che sviluppano le soluzioni di intelligenza artificiale e distinguerle dalle responsabilità di chi fabbrica i prodotti che incorporano l’AI.

C’è infine un capitolo governance. La Commissione afferma che un sistema efficace di attuazione delle regole e controllo è essenziale e richiede una supervisione pubblica con il coinvolgimento delle autorità nazionali anche in sinergia tra loro.

In arrivo la regulation europea

Le ultime tre opzioni son quelle che Bruxelles valuta con maggior convinzione; le prime due hanno più probabilità di essere accantonate.

“La Commissione potrebbe considerare una combinazione di strumenti orizzontali che fissano requisiti di trasparenza e definiscono le responsabilità e che coprono anche le regole della governance unite ad emedentamenti mirati dell’attuale legislazione dell’Ue su sicurezza e liability”, afferma il white paper.

Uno studio pubblicato a giugno dall’High-Level Group on AI della Commissione europea ha suggerito di considerare in Ue la necessità di una nuova regolamentazione per “assicurare protezione adeguata dagli impatti avversi” delle applicazioni di intelligenza artificiale.

L’Europa ha pubblicato a fine 2018 il suo  Codice etico sull’intelligenza artificiale. Le Linee guida sono state elaborate dalla Europen AI Alliance (piattaforma multi-stakeholder formata da 52 esperti del mondo accademico, dell’industria e della società civile) e sottoposte alla Commissione per l’approvazione finale a marzo 2019. Il documento stabilisce il principio secondo cui l’intelligenza artificiale non deve danneggiare il ruolo e la dignità dell’essere umano ma tutelare la sicurezza fisica, psicologica e finanziaria di tutte le persone.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati