Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

IL REPORT

AI controllata dagli uomini, l’allarme delle ricercatrici: “Potenziale arma di discriminazione”

Solo il 15% di ricercatori donne a Facebook, il 10% a Google. E la disparità è ancora più forte sul fronte etnico. Il rapporto delle ricercatrici dell’AI Now Institute, New York University: “Si rischia la produzione di sistemi dotati di pregiudizi by design”

17 Apr 2019

L’Intelligenza artificiale rischia di trasformarsi in una tecnologia ad alto tasso di discriminazione. Con ripercussioni sulla produzione di sistemi su cui si reggerà l’industria e la società, che rischieranno di amplificare stereotipi e pregiudizi su genere e etnia.

L’allarme viene lanciato dal rapporto presentato da tre ricercatrici dell’AI Now Institute all’Università di New York secondo cui sono donne solo il 15% dei ricercatori sulla AI di Facebook e il 10% di Google. Inoltre solo il 18% dei relatori ai convegni sull’AI è composto da donne e il 20% dei docenti accademici.

La disparità è ancora più accentuata se si guarda al colore della pelle: i dipendenti afroamericani di Google che si occupano di AI sono il 2,5% del totale, e arrivano al 4% in Microsoft e Facebook.

Il trend, che ricalca quello dell’industria hi-tech, ha come conseguenza lo sviluppo di sistemi e tecnologie di intelligenza artificiale in cui è insito il pregiudizio, avvertono le studiose.

Inoltre i piani fin qui attuati per migliorare il collo di bottiglia nelle campagne di recruiting fin qui hanno fallito. “Non c’è stato alcun progresso sostanziale nella diversità nel settore dell’IA”.

Le ricercatrici suggeriscono alle aziende di pubblicare più dati sui compensi, suddivisi per etnia e genere, e segnalazioni di molestie e discriminazione.

La discriminazione, avvertono, presenta pericoli in particolar modo per l’intelligenza artificiale all’interno della quale tecnologie come il riconoscimento facciale possono influenzare in modo sproporzionato i gruppi emarginati. “Strumenti come un programma che analizza i volti per determinare la sessualità, introdotti nel 2017, fanno ancora da monito”.

Un altro esempio il software sviluppato tra il 2014 e il 2017 da Amazon per valutare i curricula in modo obiettivo, poi eliminato dall’azienda perché discriminava le donne.

“La crisi di diversità nell’AI è ben documentata e di ampia portata. La si può vedere nella disparità dei posti di lavoro, delle assunzioni e promozioni, e nelle tecnologie che riflettono e amplificano stereotipi e pregiudizi”, scrivono le ricercatrici, che invitano a intervenire subito perché “i sistemi basati su AI influenzano già la vita di milioni di persone”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2