Intelligenza artificiale, Google passa all'azione: al via la modifica delle policy per gli scienziati - CorCom

TECNOLOGIA & ETICA

Intelligenza artificiale, Google passa all’azione: al via la modifica delle policy per gli scienziati

Gli studi dei ricercatori di Big G sottoposti al vaglio dei legali. La web company respinge le accuse ma annuncia più indipendenza per il team

26 Feb 2021

Patrizia Licata

giornalista

La rivolta del team AI di Google porta il colosso di Mountain View a cambiare le procedure con cui i revisori interni passano al vaglio e eventualmente modificano il lavoro degli scienziati. Lo rivela Reuters. Gli esperti di intelligenza artificiale che lavorano per valutare le tecnologie di Big e il loro impatto etico hanno alzato la voce contro la mancanza di integrità nella ricerca di Big G legata all’AI.

In un incontro con lo staff i dirigenti di Google Research hanno garantito di essere impegnati a ripristinare la fiducia persa dopo che l’azienda ha mandato vie due scienziate del team AI e respinto il loro lavoro. Google sta mettendo a punto un diverso questionario per la valutazione dei progetti di AI; i cambiamenti verranno introdotti per l’estate e assicureranno molta più indipendenza agli scienziati. La maggior parte dei loro studi non dovrà infatti passare attraverso ulteriori scrutini dopo il questionario, ha affermato la Chief operating officer Maggie Johnson.

Paper sull’AI respinti dai revisori interni

Reuters aveva già riportato a dicembre che Google aveva introdotto una procedura di revisione dei “temi sensibili” in decine di studi condotti dai suoi scienziati dell’AI e che includevano argomenti come la Cina o le possibili discriminazioni nei servizi di Google. I revisori interni avevano in particolare chiesto modifiche in tre paper sull’AI “per evitare di mettere la tecnologia di Google in cattiva luce”.

WHITEPAPER
Machine Learning nelle Telco: 3 applicazioni chiave per l’Intelligent Assurance
Intelligenza Artificiale
Telco

Ora Jeff Dean, senior vice president di Google del team di revisori, ha ammesso che la revisione dei temi sensibili “era ed è origine di confusione” e che le regole verranno rese più semplici.

Termini “edulcorati” nei paper sull’AI

Un’email interna visionata da Reuters ha evidenziato quali fossero le preoccupazioni degli scienziati di Google. Il messaggio mostra chiaramente come il dipartimento legale di Google aveva modificato uno dei tre paper, “Extracting Training Data from Large Language Models.

L’email, datata 8 febbraio e scritta da uno degli autori dello studio, Nicholas Carlini, è stata indirizzata a centinaia di colleghi nel tentativo di sottoporre alla loro attenzione quelle che Carlini ha definito correzioni “altamente insidiose” effettuate dai legali di Google.

“Quando noi, come ricercatori, scriviamo che abbiamo un ‘timore’ o troviamo che qualcosa sia ‘preoccupante’ e gli avvocati di Google ci chiedono di modificare i termini per farli suonare meno negativi, vuol dire che è intervenuto il Grande Fratello“, ha scritto lo scienziato nell’email.

Le correzioni, secondo quanto riferito da Carlini, chiedevano in pratica di edulcorare i giudizi sulle tecnologie di AI di Google, passando da termini con una connotazione negativa a termini più neutri. Per esempio, le proeccupazioni si trasformavano in considerazioni e i pericoli in rischi. Il team legale chiedeva anche di eliminare nel paper in questione le parole “breach” e “sensitive”, i riferimenti alla tecnologia di Google e la scoperta da parte degli autori che l’AI faceva trapelare contenuti protetti da copyright.

Google ha respinto le insinuazioni che il team legale abbia cercato sistematicamente di modificare i toni della ricerca; ha solo affermato che alcuni termini legali erano stati usati in modo non preciso e per questo l’azienda ha condotto una revisione approfondita del testo.

Le due leader dell’AI etico allontanate da Google

Le tensioni all’interno della divisione intelligenza artificiale di Google, dopo l’uscita di Timnit Gebru, si sono acuite nei giorni scorsi con licenziamento di Margaret Mitchell, un’altra leader del team etico per l’AI e una delle più esperte ricercatrici di settore. Google ha spiegato che il licenziamento della Mitchell è legato alle sue ripetute violazioni del codice di condotta e di sicurezza, incluso il trasferimento di file e di dati privati. La Mitchell aveva collaborato allo studio che aveva provocato l’allontanamento della Gebru e che è stato pubblicato online lo scorso mese senza riferimenti a Google. La Mitchell si è firmata tra gli autori come “Shmargaret Shmitchell”.

La spiegazione ufficiale sul licenziamento della scienziata non ha fatto altro che aumentare le tensioni e le critiche nel team AI dopo il siluramento di Gebru, una delle pochissime ricercatrici afroamericane della Silicon Valley. L’addio di Gebru ha alimentato i dubbi sugli sforzi di Mountain View di mettere a punto una tecnologia giusta e affidabile.

Rischio discriminazione negli algoritmi

Gebru aveva denunciato che il suo licenziamento era dovuto a un’email inviata a un gruppo di colleghi in cui esprimeva la sua frustrazione sui programmi sulla diversità di Google ed evocava uno studio del 2018 sui pregiudizi razziali e di genere nei software di riconoscimento facciale.

Anche su questo fronte Google ha cercato di rispondere al pressing conferendo un nuovo incarico a Marian Croak, pioniere della tecnologia audio per Internet e uno dei pochi vice president donna di colore di Google. La Croak ha ora il compito di unire e dirigere 10 team che studiano temi come la discriminazione razziale negli algoritmi e la tecnologia per persone diversamente abili.

La Croak ha detto che ci vorrà tempo per affrontare le varie preoccupazioni dei ricercatori sull’etica nell’AI e ripristinare la reputazione di Google in questo ambito. Ma ha preso le redini in mano affermando: “Ritenetemi completamente responsabile del tentativo di sanare la situazione”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5