Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

INNOVAZIONE

Searching, si apre l’era dell’intelligenza artificiale

Google annuncia un nuovo aggiornamento dei sistemi di comprensione delle query: sfruttando il modello Bidirectional Encoder Representations from Transformers e i chip Tpu, l’AI riesce a prevedere meglio le intenzioni degli utenti

25 Ott 2019

D. A.

Google avrebbe raggiunto una nuova pietra miliare nella comprensione delle query di ricerca. È la stessa azienda ad affermarlo, dicendo che sarà in grado di considerare l’intero contesto di una parola cercata valutando le parole che precedono e seguono. L’aggiornamento è il risultato di un nuovo sistema di addestramento all’intelligenza artificiale che si chiama Bert, acronimo di (Bidirectional Encoder Representations from Transformers). Con Bert, Google guida per la prima volta i risultati della ricerca utilizzando i cosiddetti Tpu (Tensor processing units), chip specializzati creati per applicazioni Ai in grado di riconoscere le parole che le persone dicono nelle registrazioni audio, individuare oggetti in foto e video e raccogliere il sentiment di un testo scritto.

L’annuncio arriva in un momento storico in cui Mountain View è particolarmente concentrata nel garantire risultati di ricerca sempre più predittivi rendendo al tempo stesso i suoi prodotti più versati rispetto alla possibilità di intrattenere gli utenti in vere e proprie conversazioni, il che manterrebbe le persone impegnate più a lungo sulla piattaforma.

La ricerca è ancora il core business di Google. La società detiene una quota di mercato superiore al 90% in molti verticali, senza contare che la capacità di comprendere correttamente le richieste degli utenti è un fattore determinante per la pubblicità, che costituisce oltre l’80% delle entrate totali di Alphabet. Pertanto, come nota Reuters in un approfondimento dedicato a Bert, un miglioramento apparentemente incrementale della ricerca può portare ad aumenti immediati rispetto al coinvolgimento degli utenti e, soprattutto, ai ricavi.

Come detto, i modelli Bert riescono a considerare l’intero contesto di una parola osservando le parole che precedono e seguono, il che può aiutare l’azienda a comprendere “l’intento” di una ricerca, ha spiegato ieri Jeff Dean, Senior Fellow e Svp di Google, durante un evento stampa.

Dean ha fatto un esempio pratico di ricerca, interpellando il motore di ricerca con la frase “2019 brazil traveler to usa need a visa”. In questo caso, la parola “to” e la sua relazione con le parole circostanti nella frase sono la chiave per comprenderne il significato completo: si tratta di un brasiliano in viaggio negli Stati Uniti, e non viceversa. Le persone comprendono naturalmente il contesto, ma il software ha impiegato molto tempo a sviluppare lo stesso tipo di comprensione. Google sostiene che Bert migliorerà una ricerca su dieci negli Stati Uniti in inglese per ora e alla fine includerà più lingue e località in futuro.

“Siamo ancora lontani dal perfezionare il linguaggio, ma questo è un passo significativo”, ha detto Dean. “Stiamo esaminando molti punti su cui potremmo applicare il modello: la comprensione della lingua è fondamentale per molti prodotti Google, a partire da Gmail”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5