Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

IL CASO

Riconoscimento facciale, bufera su Amazon negli Usa

Le collaborazioni con la polizia su servizi cloud, Ai e analisi dei video mettono in allarme gli attivisti dei diritti civili: alcuni chiedono all’azienda di fermare la vendita di questi prodotti al governo

08 Ago 2019

Patrizia Licata

giornalista

Le collaborazioni di Amazon con la polizia americana accendono la controversia negli Stati Uniti. Nel mirino le telecamere di sicurezza wireless della divisione Amazon Ring, che mettono in collegamento, tramite una app, le abitazioni private con le centrali delle forze dell’ordine. Per gli attivisti dei diritti civili questo scambio di dati – che pure consente di allertare la polizia in tempo reale in caso di reati – rischia di aprire la strada a pesanti violazioni della privacy e abusi da parte del governo, soprattutto a causa delle falle nei sistemi di riconoscimento facciale.

Amazon applica nei prodotti di videosorveglianza le sue tecnologie di cloud computing, intelligenza artificiale e analisi delle immagini e dei video. L’azienda guidata da Jeff Bezos ha decine di accordi con la polizia americana per l’uso di Ring, che viene usato come parte degli strumenti per individuare i crimini e condurre le indagini.

Amazon sostiene che è suo dovere aiutare le forze dell’ordine e che le tecnologie di cloud computing sono un beneficio per la società intera. Tuttavia diversi esperti dell’intelligenza artificiale, alcuni investitori attivisti e gli stessi dipendenti di Amazon hanno chiesto all’azienda di non vendere al governo i servizi di riconoscimento facciale, di non fornire web hosting alle autorità di controllo sull’immigrazione e di creare una commissione indipendente che valuti le potenziali ricadute sulla società dei suoi prodotti di Ai.

“Fornire storage sicuro sul cloud non è di per sé una minaccia per la privacy, ma fornire una serie di tecnologie, tra qui quelle che permettono una capillare sorveglianza come gli strumenti di riconoscimento facciale, e capacità di aggregare e analizzare dati lo è”, ha dichiarato Sharon Bradford Franklin, policy director della no-profit New America’s Open Technology Institute che difende i diritti digitali.

Amazon, tramite la filiale Aws (Amazon web services), è uno dei principali fornitori cloud per la Cia, l’Fbi e l’Immigration and customs enforcement e forze dell’ordine locali: secondo i dati di Wedbush Securities, il valore dei contratti di Aws col governo americano è balzato a 2 miliardi di dollari quest’anno contro i 200 milioni del 2014. 

Andrew Ferguson, professore di legge della at University of the District of Columbia, pensa che Amazon non si renda conto delle implicazioni della sua tecnologia sulla libertà personale e i possibili abusi delle forze dell’ordine. La Franklin del New America’s Open Technology Institute fa un esempio: un cittadino potrebbe volontariamente condividere con la polizia le immagini della telecamera all’ingresso della propria abitazione per aiutare nelle indagini su un furto nel vicinato; la polizia passerebbe le immagini attraverso il software di riconoscimento facciale e questo potrebbe erroneamente identificare come sospette persone innocenti. I falsi positivi sarebbero condivisi tra le varie agenzie governative, comprese quelle di controllo sull’immigrazione, moltiplicando i possibili abusi.

Proprio queste pericolose ricadute del software hanno spinto alcune città americane, tra cui San Francisco, Somerville e Oakland, a bandire la tecnologia per il riconoscimento dei volti. La no-profit American Civil Liberties Union, insieme a 70 organizzazioni, ha addirittua chiesto alle aziende private di non vendere più la loro tecnologia al governo. Per Luke Stark, esperto dell’università di Harvard, il riconoscimento facciale è “il plutonio dell’intelligenza artificiale: queste tecnologie hanno delle falle insormontabili dovute al modo in cui schematizzano i volti, rinforzando categorizzazioni negative su razza e genere, con effetti sociali tossici. Proprio questi problemi di base fanno sì che i rischi superino enormemente i benefici, in un modo che ricorda il nucleare”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5