NewsSiri

Le versioni future di Siri di Apple potrebbero interpretare le nostre emozioni

Le versioni future di Siri di Apple potrebbero andare oltre il riconoscimento vocale.

Apple sta sviluppando un modo per aiutare a interpretare le richieste di un utente aggiungendo l’analisi facciale a una versione futura di Siri o di un altro sistema. L’obiettivo è ridurre il numero di volte in cui una richiesta vocale viene interpretata in modo errato e farlo tentando di analizzare le emozioni.

“Gli assistenti vocali possono eseguire azioni per conto di un utente”, afferma Apple nel brevetto statunitense numero 20190348037. “Le azioni possono essere eseguite in risposta a un input dell’utente in linguaggio naturale, come una frase pronunciata dall’utente. In alcune circostanze, un’azione intrapresa da un agente software intelligente potrebbe non corrispondere all’azione prevista dall’utente. ”

“Ad esempio”, continua, “l’immagine del volto nell’ingresso video può essere analizzata per determinare se determinati muscoli o gruppi muscolari vengono attivati ​​identificando forme o movimenti”.

Siri

Parte del sistema prevede l’utilizzo del riconoscimento facciale per identificare l’utente e quindi fornire azioni personalizzate come il recupero dell’email di quella persona o la riproduzione di playlist musicali personali.

È anche inteso, tuttavia, leggere lo stato emotivo di un utente.

“[Le] informazioni sulla reazione dell’utente sono espresse come una o più metriche come una probabilità che la reazione dell’utente corrisponda a un certo stato come positivo o negativo,” continua il brevetto “o un grado in cui l’utente sta esprimendo la reazione “.

Questo potrebbe aiutare in una situazione in cui il comando parlato può essere interpretato in diversi modi. In tal caso, Siri potrebbe calcolare il significato più probabile e agire su di esso, quindi utilizzare il riconoscimento facciale per vedere se l’utente è soddisfatto o meno.

Siri

Il sistema funziona “ottenendo, tramite un microfono, un ingresso audio e ottenendo, tramite una telecamera, una o più immagini“. Apple osserva che le espressioni possono avere significati diversi, ma il suo metodo classifica la gamma di significati possibili secondo il Facial Action Coding System (FACS).

Questo è uno standard per la tassonomia facciale, creato per la prima volta negli anni ’70, che classifica ogni possibile espressione facciale in un ampio catalogo di riferimento.

Utilizzando FACS, il sistema di Apple assegna i punteggi per determinare la probabilità di interpretazione corretta e quindi far reagire o rispondere di conseguenza a Siri.

 

 

 

Tag

Continua a leggere..

Continua a leggere con l'Infinite Scrolling


Queste linee blu separano gli articoli. Continua a scorrere la pagina per visualizzare l'articolo precedente.

Back to top button
Close
Close

Stai utilizzando un AdBlocker


iSpazio è un portale gratuito, supportato da Pubblicità. Non faremo mai pagare i nostri utenti per leggere le Notizie.

Le pubblicità su questo Blog non sono mai state di tipo invasivo e sono davvero poche, posizionate in maniera tale da non arrecare disturbo.

Per tutti questi motivi, ti invitiamo a disattivare il tuo AdBlocker soltanto su questo sito per continuare la navigazione. Grazie di cuore!