Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

LO STUDIO

Riconoscimento facciale, algoritmi ancora troppo “discriminatori”

Un’indagine del National Institute of Standards and Technology ha messo in evidenza come in alcuni casi le tecnologie di facial recognition basate sull’intelligenza artificiale facciano fatica a identificare volti afro-americani e asiatici

20 Dic 2019

D. A.

Diversi sistemi di riconoscimento facciale identificano erroneamente le persone di colore più spesso di quanto succeda coi bianchi. A dirlo, ribadendo un’evidenza emersa già in altre analisi del genere, è un nuovo studio del governo degli Stati Uniti pubblicato ieri e citato da Reuters. L’indagine realizzata dal National Institute of Standards and Technology (Nist) ha messo in evidenza che, quando si conduce nel database un particolare tipo di ricerca nota come corrispondenza “one-to-one”, molti algoritmi di riconoscimento facciale hanno identificato erroneamente volti afro-americani e asiatici da dieci a cento volte più di quanto accade coi volti caucasici. Lo studio ha anche scoperto che le donne afro-americane hanno maggiori probabilità di essere erroneamente identificate nell’abbinamento “uno-a-molti”, che può essere utilizzato per identificare una persona di interesse in un’indagine penale.

Dalle startup cinesi a Microsoft, gli algoritmi con più difficoltà

Joy Buolamwini, fondatore della Algorithmic Justice League, ha definito il rapporto “una confutazione globale” di coloro che affermano che il pregiudizio dell’intelligenza artificiale non è più un problema. Lo studio arriva in un momento di crescente malcontento per la tecnologia negli Stati Uniti, con i critici che avvertono che può portare a molestie o arresti ingiusti.

Per il rapporto, il Nist ha messo alla prova 189 algoritmi forniti da 99 sviluppatori. Reuters precisa che alcune società, tra cui Amazon, non hanno condiviso software per la revisione.

Digital event, 29 aprile
Data Scientist: quali sono le competenze giuste? E quali gli attuali ambiti di applicazione?
Big Data
Big Data

SenseTime, startup cinese specializzata in tecnologie di Ai del valore di oltre 7,5 miliardi di dollari, ha avuto “tassi di corrispondenza falsi elevati per tutti i confronti” in uno dei test Nist, afferma il rapporto. L’algoritmo di SenseTime ha prodotto un falso positivo più del 10% delle volte quando guardava le foto di uomini somali che, se schierati in un aeroporto, avrebbero significato che un uomo somalo poteva passare un controllo doganale uno ogni dieci volte che utilizzava passaporti di altri somali di sesso maschile. Yitu, un’altra startup cinese, si è invece dimostrata più precisa e meno incline a non riconoscere i volti di determinate categorie razziali. Microsoft ha invece avuto quasi dieci volte più falsi positivi per le donne di colore rispetto agli uomini di colore durante un test “uno-a-molti”. Interpellata a caldo, Microsoft ha dichiarato che prima di rilasciare commenti intende studiare a fondo il rapporto.

In merito al rapporto del Nist, il deputato Bennie Thompson, presidente del Comitato per la sicurezza interna della Camera degli Stati Uniti, ha affermato che i risultati sono stati peggiori di quanto si temesse, destando preoccupazione vista la crescente adozione della tecnologia: proprio in questi giorni i funzionari doganali stanno aggiungendo il riconoscimento facciale ai checkpoint di aeroporti e stazioni. “L’amministrazione deve rivalutare i suoi piani per la tecnologia di riconoscimento facciale alla luce di questi risultati scioccanti”, ha detto Thompson.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4