Google Project Euphonia 語音輔助功能在 I/O 19 上揭曉

谷歌最新的 Euphonia 計畫正在利用人工智慧來幫助有語言障礙的行動用戶。

Google 在最近的 I/O 2019 演示中為行動和 Android 用戶提供了大量新更新。除了公佈有關隱私和即將推出的Google行動硬體的新細節外,這家科技巨頭還公佈了旨在幫助有語言障礙的用戶的最新功能。最新的 Google 服務名為 Project Euphonia,旨在幫助有語言障礙的用戶與周圍的世界進行交流。

如同上面影片中詳細介紹的,Project Euphonia 利用 Google 的人工智慧和語音通訊技術來更好地為有語言障礙或殘疾的用戶提供服務。 I/O 2019 上播放了一段預告視頻,相當清楚地展示了情況:

Google研究科學家 Dimitri Kanevsky 表示:“Google擁有非常好的語音辨識能力,但如果你聽起來不像大多數人,它就無法理解你。”患有中風、耳聾甚至多發性硬化症等健康問題的人通常不屬於該公司的語音辨識模型。因此,這些類型的用戶是 Euphonia 計畫的重點關注對象,該計畫旨在修改技術,以便專注於聽起來不像典型的直截了當的語音的交流。

顯然,培訓 Project Euphoria 的過程涉及 Kanevsky 對設備說出超過 15,000 個短語。由於不確定是否可行,Euphonia 計畫最終能夠「讓所有語音互動設備能夠理解任何與它們交談的人」。這個過程顯然可以從無法說話的人那裡識別出命令和其他功能,透過面部表情或哼唱等簡單的操作進行操作。

這個系統的設計使得那些不能清晰說話的人和那些根本不能說話的人都可以使用典型的谷歌語音功能。它不僅僅是執行行動裝置操作的一種方式:Euphonia 計畫旨在幫助所有方式的通信,從情感表達到透過文字或語音媒體以外的其他媒介創建的訊息的傳達。

根據Google I/O 2019 演示,Euphonia 計畫的範圍如此之大,以至於Google「甚至還沒有觸及其可能性的表面」。這個想法是,隨著時間的推移,Project Euphonia 可以幫助殘疾用戶匯集數據,從而使該技術能夠適應新的環境和使用情境。

就目前情況而言,行動用戶可以預期基於 Project Euphoria 數據的語音模型將在不久的將來透過 Google Assistant 提供。話雖如此,用戶可以透過提交自己的語音樣本來幫助加快採用過程。更多詳細資訊可以在Euphonia 專案網站