讓iPhone「幫你說話」!蘋果預告iOS 17輔助新功能

▲iOS 17輔助新功能。(圖/蘋果)

▲iOS 17輔助新功能。(圖/蘋果)

記者陳俐穎/綜合報導

蘋果WWDC將於下月登場,預計將會發布iOS 17,目前許多新功能也相繼傳出,不過蘋果官方目前已經搶先發布部分新功能,這些新功能主要是針對「輔助功能」進行更新。包含「Assistive Acess」、「Personal Voice」、「Point and Speak」。

蘋果表示,今年稍晚,認知功能障礙的使用者將可透過「Assistive Acess」功能更輕鬆、獨立地使用 iPhone 和 iPad。而瘖啞人士將能在通話和對話時,以「Live Speech」將打字化為語音。

失去言語能力的使用者,則可以利用「Personal Voice」功能打造與他們聲音類似的合成語音,從而與親朋好友連結。針對失明或低視能的使用者,「放大鏡」中的「偵測模式」帶來「Point and Speak」功能,可辨識使用者所指向的文字並進行朗誦,從而協助他們與家電等實體物品進行互動。

「Assistive Access」包含專為電話和 FaceTime 打造的自訂體驗,兩者被整合成了單一「通話」app,以及客製化的「訊息」、「相機」、「照片」和「音樂」等體驗。這項功能提供不同於一般,擁有高對比按鍵和大型文字標籤的介面,以及可協助被信任的照顧者為他們所支持的身心障礙者量身打造使用體驗的工具。舉例而言,針對較喜歡以視覺進行溝通的使用者,「訊息」納入一款只有表情符號的鍵盤,並提供錄製影片訊息並與親朋好友分享的選項。使用者與他們所信任的照顧者也可以為「主畫面」和 app 選擇更視覺化,以網格為基礎的佈局,或者,偏好文字的使用者則可以選擇基於欄位的佈局。

有了 iPhone、iPad 和 Mac 上的「Live Speech」功能,使用者將可以透過打字寫下他們所想要說的話,並讓裝置在電話或 FaceTime 通話,以及現場對話進行期間朗誦這些文字。使用者也可以將常用語句儲存起來,輕敲一下就可在與親朋好友和同事的即時對話中快速套用。「Live Speech」專為支援全球數以百萬計瘖啞人士或逐漸喪失言語能力的使用者而打造。

針對可能失去言語能力的使用者,如罹患肌萎縮性脊髓側索硬化症 (ALS) 或其他會逐漸侵蝕說話能力的疾病之人,「Personal Voice」是個簡單而安全的方式,讓他們得以創造與自己聲音相似的語音。

使用者可以透過讀出一系列隨機文本提示,在 iPhone 或 iPad 上錄製 15 分鐘的音訊,以創造出一個「Personal Voice」。這項語音輔助使用功能利用裝置端機器學習,確保使用者的資訊私密而安全,並與「Live Speech」流暢整合,讓使用者能在與親朋好友連結時使用自己的「Personal Voice」。

「放大鏡」中的「Point and Speak」功能讓視覺障礙使用者可以更輕易地與擁有數個文字標籤的實際物體互動。舉例來說,使用微波爐等家電時,「Point and Speak」會結合「相機」app 和光學雷達掃描儀的輸入,以及裝置端機器學習,從而於使用者手指在數字鍵盤上移動時,根據其位置朗誦出按鍵上的文字。「Point and Speak」內建於 iPhone 和 iPad 上的「放大鏡」app,適合與「旁白」共同使用,並可結合「人物偵測」、「門偵測」和「圖片描述」等其他「放大鏡」功能使用,引導使用者掌握周遭環境。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

關鍵字:

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面