Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

AI RESPONSABILE

Accenture presenta il primo tool di machine learning “politically correct”

Il software della società di consulenza aiuta organizzazioni pubbliche e private a scongiurare il rischio di pregiudizi correlando gruppi più ampi di dati rispetto a quelli su genere, etnia o età. In nome di equità e diversity

13 Giu 2018

Patrizia Licata

giornalista

Gli algoritmi di machine learning sono usati da un numero crescente di aziende e enti pubblici per supportare decisioni strategiche, ma come evitare che i software di intelligenza artificiale producano discriminazioni di genere, di etnia o di altro tipo? La società di consulenza Accenture ha messo a punto uno strumento che aiuta le imprese proprio a evitare che i risultati delle analisi condotte con algoritmi di AI finiscano col produrre un esito pregiudizievole, per esempio nelle assunzioni di personale da parte di un’azienda, nelle assegnazioni di un mutuo da parte di una banca o di un prestito di una società finanziaria, nell’approvazione di un’agevolazione del fisco o addirittura di uno sconto di pena da parte dell’autorità giudiziaria.

Se nella teoria il software di AI, correttamente progettato e istruito col machine learning, dovrebbe fornire risultati liberi da quei pregiudizi che possono intervenire nel processo decisionale umano, nella pratica è successo che gli algoritmi abbiano avuto l’esito opposto: in alcuni casi noti hanno per esempio discriminato le donne o le minoranze etniche. Per esempio, un algoritmo usato da molte città e stati degli Usa per decidere se concedere la libertà su cauzione in attesa del processo per alcuni imputati ha, in maniera non corretta, favorito i bianchi sui neri, come emerso da un’indagne del 2016 di ProPublica.

Accenture ha sviluppato un tool che ha presentato per la prima volta nel corso di una conferenza sull’AI che si tiene Londra. Rumman Chowdhury, data scientist che dirige la divisione Responsible AI della società, ha illustrato la tecnica della “mutual information” che viene impiegata per scongiurare che gli algoritmi prendano decisioni non corrette.

Con questa tecnica il software di Accenture permette di confrontare dati che possono essere correlati e eliminare l’elemento che può introdurre un pregiudizio su entrami i dataset. Per esempio, la razza e il codice postale possono essere in connessione e quindi anche la zona di residenza deve avere un filtro anti-discriminazione. Un’altra funzionalità del tool di Accenture è il metodo che permette di valutare l’equità dell’algoritmo paragonando i tassi di falsi positivi e falsi negativi.

Non è una bacchetta magica ma Accenture garantisce che la tecnica implementata non sacrifica necessariamente l’efficacia dell’impiego dell’intelligenza artificiale e aiuta in ogni caso a potenziare l’equità dei risultati, a garanzia della diversity e di decisioni non-discriminatorie.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5