Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

INTELLIGENZA ARTIFICIALE

Riconoscimento facciale, il record di Ibm: ecco il dataset da 1 milione di “volti”

Big Blue rilascia “Diversity in Faces” per promuovere uno studio più corretto ed accurato nell’ambito della tecnologia. Intanto infuria la polemica sul sistema “Rekognition” di Amazon che , dice il Mit, sarebbe “razzista” avendo difficoltà a riconoscere i visi di donne con pelle scura

30 Gen 2019

Se già il dibattito sull’opportunità etica dell’introduzione dei sistemi di riconoscimento facciale è ben lungi dal dirsi concluso, il caso legato alla tecnologia Rekognition di Amazon non farà che inasprirlo. È infatti balzato agli onori delle cronache il problema che sembrerebbe affliggere la piattaforma creata dal colosso di Jeff Bezos: a differenza di altre soluzioni, come quelle di Microsoft e Ibm, che sono riuscite a evolversi in questo senso, Rekognition ha ancora difficoltà a identificare i tratti somatici delle donne e più in generale degli individui di colore.

Secondo i ricercatori del Mit Media Lab dell’università di Toronto, l’Intelligenza artificiale di Amazon non riesce a riconoscere soggetti femminili nel 19% dei casi, e addirittura nel 31% dei casi in presenza di pelle scura. Per comprendere qual è la dimensione del margine di errore, il programma di Microsoft ha fallito nella stesso tipo di operazione solo l’1,5% delle volte. Tanto è bastato per titolare sui giornali che il sistema di facial recognition di Amazon è razzista. Si tratta senz’altro di una disfunzione che potrebbe generare situazioni discriminanti, abusi, lesioni della privacy e soprattutto errori con pesanti conseguenze giudiziarie nel momento in cui – come sta già accadendo in via sperimentale – la tecnologia fosse adottata dalle forze dell’ordine.

L’accusa di razzismo, naturalmente, non si rivolge alla soluzione in sé, che essendo un software è, fino a prova contraria, neutrale. Il problema sta nel modo in cui si alimenta la piattaforma di Intelligenza artificiale: se il programma ha difficoltà a riconoscere persone, e nella fattispecie donne, con tonalità di pelle più scura, significa che il sistema – fondamentalmente un centro di calcolo statistico ultra-veloce – non è stato “allenato” con un numero sufficientemente elevato di immagini contenenti volti di donne e di persone di etnie diverse da quella caucasica. E quindi non ha ingerito informazioni a sufficienza per stabilire pattern, ricorrenze ed eccezioni su quel tipo di lineamenti. Che nei test e nelle fasi di addestramento della piattaforma si sia data la precedenza, immaginandoli come utenti tipo, a uomini bianchi, è ovviamente tutto da dimostrare. Ma le performance di Rekognition potrebbero indicare una scelta del genere come causa plausibile.

Matt Wood, che in Amazon è responsabile della divisione Ai, ha contestato i risultati dello studio sostenendo che il team canadese avrebbe messo alla prova l’analisi facciale (che individua i volti e attribuisce alcune caratteristiche generiche) anziché il più accurato riconoscimento facciale (che stabilisce corrispondenze univoche tra volti e individui). Joy Buolamwini e Inioluwa Deborah Raji, entrambe autrici della ricerca, hanno ribadito che la diffusione di massa della tecnologia, allo stato attuale, costituisce comunque un rischio: servono “azioni politiche, norme di condotta aziendali e linee guida” in modo che “le minoranze verranno protette e non messe a rischio dall’evoluzione tecnologica”.

Il dito è puntato contro Amazon più che contro altri vendor in primo luogo per la segretezza e la scarsa partecipazione al dibattito pubblico con cui la società di Bezos sta conducendo i piani di sviluppo delle piattaforme di Intelligenza artificiale. Amazon attribuisce questo atteggiamento alla necessità di mantenere la massima riservatezza nei confronti dei progetti avviati con i propri clienti. Microsoft e Ibm, d’altra parte, non perdono occasione per sottolineare i progressi continui nella messa a punto della tecnologia.

Commentando indirettamente i risultati dello studio del Mit di Toronto, John R. Smith, Ibm Fellow e responsabile Ai Tech per Ibm Research Aiha pubblicato sul blog del gruppo un post in cui spiega per filo e per segno in che modo Watson sta venendo allenato per riconoscere con sempre maggiore efficacia i connotati delle persone, a prescindere da genere e colore della pelle. “Stiamo rilasciando un nuovo grande data set denominato Diversity in Faces (DiF)”, scrive Smith, “una risorsa che comprende un milione di immagini di volti umani e che, stando alle nostra analisi iniziali, dovrebbe fornire una distribuzione più bilanciata e una maggiore copertura rispetto ai data set precedenti. Inoltre, gli schemi di coding applicati a queste immagini ci hanno permesso di estrarre nuovi insight che ci consentono di comprendere meglio gli elementi più importanti nella caratterizzazione di una faccia”. Il post di Smith si chiude con la precisazione che il data set è già disponibile su richiesta per l’intera community globale dei ricercatori impegnati sul tema. “Siamo consapevoli che il nostro non è un lavoro che possiamo fare da soli”, chiosa Smith.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5