INNOVAZIONE

Searching, si apre l’era dell’intelligenza artificiale

Google annuncia un nuovo aggiornamento dei sistemi di comprensione delle query: sfruttando il modello Bidirectional Encoder Representations from Transformers e i chip Tpu, l’AI riesce a prevedere meglio le intenzioni degli utenti

Pubblicato il 25 Ott 2019

D. A.

intelligenza-artificiale_579200824

Google avrebbe raggiunto una nuova pietra miliare nella comprensione delle query di ricerca. È la stessa azienda ad affermarlo, dicendo che sarà in grado di considerare l’intero contesto di una parola cercata valutando le parole che precedono e seguono. L’aggiornamento è il risultato di un nuovo sistema di addestramento all’intelligenza artificiale che si chiama Bert, acronimo di (Bidirectional Encoder Representations from Transformers). Con Bert, Google guida per la prima volta i risultati della ricerca utilizzando i cosiddetti Tpu (Tensor processing units), chip specializzati creati per applicazioni Ai in grado di riconoscere le parole che le persone dicono nelle registrazioni audio, individuare oggetti in foto e video e raccogliere il sentiment di un testo scritto.

L’annuncio arriva in un momento storico in cui Mountain View è particolarmente concentrata nel garantire risultati di ricerca sempre più predittivi rendendo al tempo stesso i suoi prodotti più versati rispetto alla possibilità di intrattenere gli utenti in vere e proprie conversazioni, il che manterrebbe le persone impegnate più a lungo sulla piattaforma.

La ricerca è ancora il core business di Google. La società detiene una quota di mercato superiore al 90% in molti verticali, senza contare che la capacità di comprendere correttamente le richieste degli utenti è un fattore determinante per la pubblicità, che costituisce oltre l’80% delle entrate totali di Alphabet. Pertanto, come nota Reuters in un approfondimento dedicato a Bert, un miglioramento apparentemente incrementale della ricerca può portare ad aumenti immediati rispetto al coinvolgimento degli utenti e, soprattutto, ai ricavi.

Come detto, i modelli Bert riescono a considerare l’intero contesto di una parola osservando le parole che precedono e seguono, il che può aiutare l’azienda a comprendere “l’intento” di una ricerca, ha spiegato ieri Jeff Dean, Senior Fellow e Svp di Google, durante un evento stampa.

Dean ha fatto un esempio pratico di ricerca, interpellando il motore di ricerca con la frase “2019 brazil traveler to usa need a visa”. In questo caso, la parola “to” e la sua relazione con le parole circostanti nella frase sono la chiave per comprenderne il significato completo: si tratta di un brasiliano in viaggio negli Stati Uniti, e non viceversa. Le persone comprendono naturalmente il contesto, ma il software ha impiegato molto tempo a sviluppare lo stesso tipo di comprensione. Google sostiene che Bert migliorerà una ricerca su dieci negli Stati Uniti in inglese per ora e alla fine includerà più lingue e località in futuro.

“Siamo ancora lontani dal perfezionare il linguaggio, ma questo è un passo significativo”, ha detto Dean. “Stiamo esaminando molti punti su cui potremmo applicare il modello: la comprensione della lingua è fondamentale per molti prodotti Google, a partire da Gmail”.

@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articolo 1 di 2