HOME ASSISTANT

Alexa si “umanizza”: Amazon al lavoro sulla voce emozionale

Gli sviluppatori stanno implementando una nuovo componente in grado di “mimare” sentimenti di fastidio o eccitazione. Quali saranno le conseguenze?

Pubblicato il 29 Nov 2019

Antonio Dini

digitale-fibra

Gli sviluppatori che realizzano i comandi per le loro applicazioni che servono a pilotare le risposte di Alexa, l’assistente digitale di Amazon utilizzata nei telefoni e negli smart speaker oltre che nelle smart tv, adesso dovranno cominciare a preoccuparsi anche di quale emozione far trasparire nel tono di voce delle risposte di Alexa.
Questo perché Amazon sta implementando – ci vorrà ancora un po’ di tempo ma i lavori sono cominciati – una componente “emotiva” nel tono di voce di Alexa quando risponde a una domanda. Emozioni semplici: fastidio o eccitazione, coinvolgimento o fastidio. Ma sempre emozioni. Se ad esempio si chiederà ad Alexa il risultato della partita della nostra squadra, a seconda di come è andata il tono sarà gioioso oppure triste o deluso.

I nuovi strumenti software annunciati da Amazon per dare “personalità” ad Alexa ovviamente non fanno miracoli. Ma aggiungono uno strato ulteriore di credibilità all’assistente digitale che finora è stata sempre più brava a capire e rispondere a tono alle domande degli utenti (sulla base di informazioni preprogrammate) ma che ha un tono di voce freddo e distaccato. Tra poco, non più.
Amazon ha dichiarato di aver cominciato a lavorare alla funzionalità “emozioni nella voce” a partire dal feedback degli utenti, che hanno visto aumentare del 30% la loro soddisfazione quando hanno sentito nella voce di Alexa l’espressione di emozioni coerenti con il contesto delle domande.

Secondo l’azienda di Seattle le emozioni di Alexa potrebbero essere utilizzate ad esempio nei giochi, dove l’assistente digitale deve dare un giudizio su risposte corretto o sbagliate. Amazon offre questa capacità di esprimere emozioni con la voce anche agli sviluppatori terze parti, che realizzano le cosiddette “skill” di Alexa, cioè dei plugin che permettono all’assistente digitale di Amazon di rispondere a domande su uno specifico settore di competenza creato dall’azienda in questione.
«Continuiamo ad aggiungere abilità ad Alexa per aiutarla a creare una esperienza per i nostri clienti che sia più naturale e intuitiva».

Secondo Amazon, la potenza di calcolo del cloud ha permesso di sviluppare sistemi di machine learning sempre più sofisticati che hanno permesso ai computer di superare una soglia importante: anziché costringere gli utenti ad imparare un modo per comunicare con il computer superando le sue limitazioni, adesso questi ultimi sono in grado di comunicare con gli utenti in maniera naturale, cioè utilizzando il linguaggio parlato.
L’uso di un sistema di comunicazione naturale, se arricchito dal “colore” delle mozioni nella voce di Alexa potrebbe aprire la strada a scambi sempre più profondi ma anche a reazioni di rifiuto o di spiacevolezza che, nel settore che si occupa di costruire robot e automi, viene chiamato “Uncanny Valley”, letteralmente la valle della sconcertante mancanza di naturalezza.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!


Aziende


Argomenti


Canali

Articoli correlati