Stop all’utilizzo delle tecnologie di riconoscimento facciale e altri sistemi di sorveglianza basati sull’intelligenza artificiale finché non ci saranno regole capaci di tutelare i diritti della persona. Lo ha chiesto l’Onu tramite il suo Alto commissario per i diritti umani, Michelle Bachelet, nel presentare un nuovo studio sull’AI commissionato dallo Un Human rights council.
Lo studio afferma che i sistemi di Ai sono stati spesso impiegati dagli Stati e dalle imprese in modo frettoloso, senza considerare le conseguenze. Le violazioni possono essere devastanti, ha sottolineato la commissaria per i diritti umani: “Le tecnologie di Ai possono avere effetti negativi, persino catastrofici, se sono utilizzate senza sufficiente considerazione di come possono impattare i diritti delle persone”.
Bachelet ha chiesto di condurre una valutazione dell’entità del rischio che le diverse tecnologie di Ai creano rispetto a diritti fondamentali come la privacy e la libertà di movimento e di espressione. Finché non ci saranno consapevolezza dei rischi e, di conseguenza, delle regole in grado di arginarli, tecnologie come il riconoscimento facciale – che pongono i rischi più alti – dovrebbero essere vietate oppure il loro utilizzo andrebbe fortemente limitato.
L’allarme sul riconoscimento facciale
Lo studio dell’Onu evidenzia come i sistemi di Ai possono essere usati per decidere chi accede ai servizi pubblici e nella scelta dei candidati per un posto di lavoro e incidono anche sulle informazioni a cui le persone hanno accesso online.
Strumenti di riconoscimento facciale hanno portato a arresti ingiustificati di persone innocenti e hanno creato discriminazioni nell’accesso all’assistenza pubblica o all’erogazione di prestiti. Lo studio evidenzia in modo particolare i rischi dell’impiego da parte delle forze dell’ordine degli strumenti di riconoscimento facciale remoto in tempo reale e le iniquità create dalle tecnologie di profilazione e di automazione delle decisioni.
Il report afferma che i sistemi di Ai si fondano su grandi quantità di dati con informazioni sulle persone spesso raccolte, condivise, fuse e analizzate in modo opaco. Gli stessi data set possono contenere errori, essere obsoleti o discriminatori. In ogni caso, pongono le basi per violazioni dei diritti umani.
Una moratoria in nome dei diritti umani
Pur riconoscendo il potere dell’Ai di portare benefici alle persone, Bachelet ha detto che “altrettanto potente è la capacità dell’Ai di aprire le porte a violazioni dei diritti umani su scala enorme ma virtualmente con nessuna possibilità di rilevare tali violazioni. Bisogna agire per creare salvaguardie ai diritti umani”.
E intanto che si valutano gli impatti dell’Ai, “gli Stati dovrebbero varare una moratoria e sospendere l’uso delle tecnologie potenzialmente più rischiose”, ha concluso Bachelet. “Non possiamo permetterci di inseguire una tecnologia di cui permettiamo l’utilizzo senza restrizioni o vigilanza per poi dover affrontare le conseguenze sui diritti umani dopo che si sono prodotte”.
L’allarme Onu già dopo il caso Pegasus
Già ad agosto, alla luce del “caso Pegasus”, un gruppo di esperti dell’Onu aveva chiesto una moratoria globale sulla vendita di tutti i software-spia “potenzialmente letali” finché non saranno messe a punto robuste regole per garantire che gli spyware siano usati senza violare i diritti umani.
Pegasus è il noto software-spia prodotto dalla società israeliana Nso group per le forze di intelligence e venduto a diversi Paesi, inclusi alcuni regimi autoritari. Il software, secondo quanto portato alla luce da Forbidden stories e Amnesty international, sarebbe stato utilizzato da alcuni governi per spiare giornalisti, attivisti per i diritti umani, dissidenti politici, manager e capi politici in tutto il mondo. Nso ha sempre negato ogni coinvolgimento in utilizzi illeciti dei propri prodotti.