IL PROGETTO

Abusi sui minori, un software Apple “stanerà” le foto su iPhone. Ma scatta la polemica

Il sistema NeuralMatch pronto per l’adozione negli Usa già dal mese prossimo. Le immagini sospette verranno scansionate e trasmesse alle autorità competenti. Secondo alcuni critici però la soluzione rischia di rivelarsi un’arma nelle mani di governi autoritari

Pubblicato il 06 Ago 2021

Apple-iPhone-Xs-hands_screen-09122018_inline.jpg.large_2x

Si chiama NeuralMatch il nuovo strumento anti-pedopornografia messo a punto da Apple. Il software consente di scansionare le foto archiviate su iPhone e iCloud alla ricerca di immagini di abusi sui minori. Un supporto nelle indagini delle forze dell’ordine che però, secondo alcuni critici, potrebbe aprire la porta a maggiori richieste legali e governative di dati degli utenti.

Il sistema avviserà un team di revisori umani se ritiene che vengano rilevate immagini illegali: i revisori contatteranno eventualmente le forze dell’ordine. NeuralMatch, che è stato addestrato utilizzando 200mila immagini dal National Center for Missing & Exploited Children, verrà lanciato per la prima volta negli Stati Uniti. Le foto verranno confrontate con un database di immagini note di abusi sessuali su minori.

Come funziona il sistema NeuralMatch

“Secondo le persone informate sui piani, ogni foto caricata su iCloud negli Stati Uniti riceverà un ‘certificato di sicurezza‘, che indica se è sospetta o meno – scrive il Financial Times -. Una volta contrassegnato come sospetto un certo numero di foto, Apple consentirà a tutte le foto sospette di essere decifrate e, se apparentemente illegali, trasmesse alle autorità competenti”.

Le critiche al software

Nonostante Apple sostenga che l’iniziativa goda del sostegno dei gruppi per la tutela dei minori negli Usa, l’annuncio ha destato polemiche: secondo “Abc News”, alcuni esperti temono le potenziali applicazioni dello strumento ad altri ambiti di controllo, sia da parte di aziende private che degli Stati, che avrebbero a loro disposizione un nuovo strumento di sorveglianza di attivisti e dissidenti politici.

Secondo Matthew Green, docente di sicurezza presso la Johns Hopkins University, il nuovo “tool” sviluppato da Apple “infrangerà la diga: i governi ne chiederanno l’utilizzo su tutti i cittadini”.

Big tech contro la pedopornografia

Aziende tecnologiche come Microsoft, Google e Facebook condividono da anni “liste di prescrizioni” di immagini di carattere pedopornografico.

Anche Apple controlla già i file iCloud per quanto riguarda le immagini di abusi sui minori note, come ogni altro big provider di servizi cloud. Ma il nuovo sistema andrebbe oltre, consentendo l’accesso centrale all’archiviazione locale.

Apple ha precedentemente pubblicizzato le protezioni della privacy integrate nei suoi dispositivi e notoriamente si è opposto all’Fbi quando l’agenzia voleva che Apple costruisse una backdoor in iOS per accedere a un iPhone utilizzato da uno degli assassini nell’attacco del 2015 a San Bernardino.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati