Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

LO STUDIO

Se la parola “amore” inganna l’intelligenza artificiale

La ricerca della Aalto University: i sistemi automatici per il rilevamento di contenuti “hate speech” tratti in confusione anche nel caso di errori ortografici e grammaticali. Tommi Gröndahl: “Raggirato anche Perspective, il programma utilizzato da Google”

17 Set 2018

A. S.

Gli haters che sui social network commettono errori grammaticali o di ortografia nel pubblicare i loro messaggi violenti hanno più probabilità di eludere i sistemi automatici di rilevamento dell’hate speech. E’ la conclusione a cui è giunta una recente ricerca dell’ateneo finlandese Aalto University, secondo cui hanno ottime chance di bypassare i controlli anche le espressioni violente che contengono parole fuori contesto, come ad esempio – tra le più gettonate – “amore”.

Lo studio è stato pubblicato online da Arvix, e ha passato in rassegna sette dei programmi più utilizzati per tenere al riparo dall’hate speech i social network e i siti internet.

“Abbiamo inserito semplici errori di battitura, tolto qualche spazio o aggiunto parole neutre all’originale commento negativo – afferma Tommi Gröndahl, a capo del gruppo di ricercatori – Eliminare gli spazi tra le parole si è rivelato l’attacco più potente, e una combinazione di tutti questi metodi è stata efficace anche contro Perspective, il programma utilizzato da Google”.

Per fare un esempio pratico, dalla ricerca è emerso che gli utenti che scrivono “ti odio” vengono facilmente intercettati dell’intelligenza artificiale, mentre passano senza problemi commenti come “tiodio amore”.

La situazione si complica quando si tratta di analizzare anche il contesto in cui un commento viene pubblicato, che può essere determinante per stabilire se si tratti di hate speech o di un’offesa di minore entità. A dimostrare che spesso gli strumenti usati attualmente per analizzare i testi si rivelano insufficienti per raggiungere pienamente i propri obiettivi. Una parziale soluzione, secondo gli esperti dell’ateneo finlandese, sarebbe quella di prestare più attenzione alla qualità e al tipo dei dati utilizzati per addestrare i sistemi di Intelligenza artificiale, focalizzando l’analisi più sui singoli caratteri che sulle parole o sulle frasi.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2