L'elaborazione del linguaggio naturale è questa la fine della parola scritta?
notiziaPer alcuni il film di Spike Jonze. Lei è stata straziante, per altri è stato uno sguardo al futuro, ma immagina se l'assistente personale del film Samantha avesse improvvisamente pronunciato a Theodore: "Scusa, non l'ho capito?" Avrebbe ucciso la storia d'amore morta.
Gli stili di conversazione di Siri e Google Now non sono neanche lontanamente vicini a quelli di Samantha, ma il loro sviluppo fa parte di un movimento che minaccia di eclissare la parola scritta. La nostra scrittura a mano non è mai stata peggio, digitando su una tastiera si sta iniziando a sentirsi arcaici e persino costantemente toccando messaggi di testo e termini di ricerca web è probabile che porti crampi alle dita e mani doloranti.
Con i dispositivi iOS che ora consentono l'invio di messaggi vocali e le previsioni per auto a guida autonoma e porte, luci e ascensori attivati dalla voce (per l'internet delle cose), è chiaro che il futuro sarà parlato, non scritto.
La tecnologia alla base di questo cambiamento nel modo in cui interagiamo con l'ambiente circostante è l'elaborazione del linguaggio naturale, una tecnologia che consente ai computer di comprendere il significato delle nostre parole e riconoscere le abitudini del nostro linguaggio.
Rovi sta rendendo la ricerca degli orari TV discutibileDove vedremo prima l'elaborazione del linguaggio naturale?
Oltre a Siri e Google Now, potresti averlo già utilizzato su Xbox One e Samsung UE65HU8500
ma finora il riconoscimento vocale ha ruotato attorno a una lista molto piccola di frasi e parole. Una conversazione corretta non lo è. "Le parole magiche hanno fatto sì che queste tecnologie si affidassero a sistemi di menu strutturati in cui il comando vocale sostituiva semplicemente gli input tradizionali", afferma Charles Dawes, Global Acrobic Accounts Director di Rovi. "Questi non forniscono un'esperienza soddisfacente, costringendo gli utenti a imparare come parlare al dispositivo e far sì che il discorso diventi pungente e innaturale".
I sistemi di riconoscimento vocale automatico dei televisori hanno finora fatto affidamento sui microfoni incorporati che potrebbero essere in qualche modo lontani dallo spettatore, anche se le applicazioni si stanno spostando verso le app. "La diffusione di smartphone e tablet offre agli operatori l'opportunità di aggirare questo problema abilitando la ricerca e le raccomandazioni per la TV attraverso il secondo schermo", afferma Dawes. "Lo sviluppo di questi dispositivi è esploso, e la potenza di elaborazione offerta dalla maggior parte del mercato offre un'ampia base su cui costruire le capacità di conversazione".
Ma ci sono molti altri posti in cui stiamo già utilizzando motori di linguaggio naturale. Barclays Wealth lo utilizza per verificare il titolare di un conto, la compagnia aerea JetBlue utilizza pubblicità vocale intelligente e Ford utilizza un linguaggio naturale per i conducenti per controllare i sistemi di bordo come telefono, musica, temperatura, navigazione e aggiornamenti del traffico.
Come funziona l'elaborazione del linguaggio naturale?
Una volta riconosciuto ciò che qualcuno ha detto, è tutto basato sul contesto e disambigua termini simili. "Uno spettatore potrebbe dire 'a che ora è il gioco City su stasera?', E la tecnologia vocale dovrebbe prendere una decisione sul contesto - il calcio - e la preferenza dell'utente in base alla sua storia. Supportano Norwich City o Manchester Città?" dice Dawes. "La tecnologia deve anche essere in grado di affrontare cambiamenti improvvisi, ad esempio, deve riconoscere che se lo stesso spettatore chiede" ci sono thriller su stasera? " stanno cercando al di fuori del contesto sportivo ".
Siri, Google Now e Cortana utilizzano tutti l'elaborazione del linguaggio naturale