Intelligenza artificiale, i paletti del Parlamento Ue: no al riconoscimento facciale - CorCom

LA RISOLUZIONE

Intelligenza artificiale, i paletti del Parlamento Ue: no al riconoscimento facciale

Da vietare anche banche dati private dei volti, punteggio sociale, biometria alle frontiere: gli eurodeputati chiedono una tecnologia trasparente che non violi i diritti. Più controlli sugli usi nelle forze dell’ordine

06 Ott 2021

Patrizia Licata

giornalista

L’intelligenza artificiale deve essere controllabile e il suo utilizzo non può violare la privacy e gli altri diritti fondamentali. La risoluzione adottata dal Parlamento europeo mette nero su bianco i requisiti dei nuovi sistemi di Ai: devono sempre essere supervisionati dalle persone e sviluppati con algoritmi trasparenti.

I deputati chiedono anche di vietare le banche dati private di riconoscimento facciale , la polizia comportamentale e il sistema di punteggio sociale e dicono no all’uso del riconoscimento facciale per il controllo delle frontiere o negli spazi pubblici.

Per combattere la discriminazione e garantire la privacy, i deputati chiedono forti salvaguardie quando gli strumenti di intelligenza artificiale sono utilizzati dalle forze dell’ordine.

Serve un quadro giuridico chiaro

Nella risoluzione, adottata da 377 a favore, 248 contro e 62 astenuti, i deputati sottolineano il rischio di pregiudizi algoritmici nelle applicazioni che usano l’intelligenza artificiale e affermano che la supervisione umana e un chiaro quadro giuridico sono necessari per prevenire tali discriminazioni, soprattutto se utilizzate dalle forze dell’ordine e di controllo delle frontiere. Le persone monitorate dai sistemi alimentati dall’Ai devono avere accesso a ricorsi, aggiungono i deputati.

WHITEPAPER
Quali sono le strategie da seguire per difendersi contro gli attacchi di phishing?
Sicurezza
Cybersecurity

Algoritmi trasparenti per contrastare la discriminazione

Nel testo approvato dall’Europarlamento si afferma che molte tecnologie di identificazione in uso già commettono un numero sproporzionato di errori di identificazione e di classificazione, danneggiando soprattutto le persone che appartengono a determinati gruppi razziali o etnici, le persone Lgbti, i bambini, gli anziani e le donne, situazione particolarmente preoccupante nel contesto delle operazioni delle forze dell’ordine e della magistratura.

Per garantire il rispetto dei diritti fondamentali, gli algoritmi dovrebbero essere trasparenti, tracciabili e sufficientemente documentati, chiedono i deputati, e le autorità pubbliche dovrebbero divulgare le loro applicazioni come software open-source.

“Divieto permanente” per tecnologie come Clearview e iBorderCtrl

Per rispettare la privacy e la dignità umana i deputati chiedono un divieto permanente dell’utilizzo del riconoscimento automatico delle persone negli spazi pubblici, notando che i cittadini dovrebbero essere monitorati solo se sospettati di un crimine. Il Parlamento chiede di vietare anche l’uso di banche dati private di riconoscimento facciale (come il sistema Clearview Ai, banca dati di oltre tre miliardi di immagini raccolte illegalmente dai social network, già in uso) e la polizia predittiva basata sui dati comportamentali.

I deputati chiedono anche di vietare i sistemi di punteggio sociale, che cercano di valutare l’affidabilità dei cittadini in base al loro comportamento o personalità.

Infine, il Parlamento è preoccupato dall’uso di dati biometrici per identificare a distanza le persone. Per esempio, i cancelli di controllo alle frontiere che utilizzano il riconoscimento automatico e il progetto iBorderCtrl (un “sistema intelligente di rilevamento delle bugie” per l’ingresso dei viaggiatori nell’Ue) non dovrebbero essere più utilizzati, dicono i deputati, che sollecitano la Commissione ad aprire procedure di infrazione contro gli Stati membri, se necessario.

Il Parlamento chiede una moratoria sull’Ai che lede i diritti

Il relatore Petar Vitanov (S&D, BG) ha detto: “Stiamo inviando un chiaro segnale che i diritti fondamentali sono incondizionati. Per la prima volta in assoluto, chiediamo una moratoria sul dispiegamento dei sistemi di riconoscimento facciale per scopi di applicazione della legge, poiché la tecnologia ha dimostrato di essere inefficace e spesso porta a risultati discriminatori. Ci opponiamo chiaramente alla polizia predittiva basata sull’uso dell’Ai, così come a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa. Questa è una grande vittoria per tutti i cittadini europei”.

Ad aprile la Commissione europea ha presentato la sua strategia per l’intelligenza artificiale indicando la trasparenza e il trust come elementi fondamentali dello sviluppo tecnologico e dell’applicazione dei sistemi Ai.

Anche l’Onu ha chiesto una moratoria sull’utilizzo delle tecnologie di riconoscimento facciale e altri sistemi di sorveglianza basati sull’intelligenza artificiale finché non ci saranno regole capaci di tutelare i diritti della persona.

L’Ai nelle smart city, a rischio la coesione territoriale

Uno studio commissionato dal Parlamento europeo (separatamente dalla risoluzione sull’Ai) ha evidenziato anche i rischi dell’applicazione delle tecnologie di intelligenza artificiale allo sviluppo delle smart city.. Un vero e proprio divario potrebbe crearsi, in termini di sviluppo e opportunità sociali ed economiche, tra singole zone delle città, tra città e contesto extra-urbano e fra le varie città di un dato territorio.

L’Ai offre enormi potenzialità ai fini dello sviluppo socio-economico e del miglioramento della qualità della vita individuale e collettiva (ad esempio sul fronte della mobilità della gestione dei rifiuti, dell’efficienza energetica, ecc.), ma presenta potenziali rischi collegati soprattutto alla capacità di raccogliere, elaborare e trasformare immense quantità di dati, sfruttando anche le sinergie con altre tecnologie (big data, cloud, Internet of things).

I rischi vanno dalle politiche di cybersecurity all’influenza di errori e “bias” (pregiudizi) basati sulla raccolta e l’elaborazione dei dati, che possono avere pesanti ripercussioni a livello individuale e collettivo: dal cosiddetto rischio “black-box”, legato all’opacità o addirittura totale impenetrabilità dei processi automatizzati, alle implicazioni etiche connesse ai processi decisionali dell’Ai; dalle disparità connesse alle differenti opportunità di accesso ai dati; fino ad arrivare all’eccessiva invasività del controllo tecnologico nelle vite quotidiane.

Lo studio propone alcuni indirizzi operativi come lo sviluppo di politiche e pratiche focalizzate su una precisa  regolazione dell’accesso ai dati e della loro condivisione; un puntuale e tempestivo adeguamento dei quadri giuridici e regolamentari; lo sviluppo di competenze e capacità adeguate (anche in chiave data protection).

@RIPRODUZIONE RISERVATA

Articolo 1 di 3