腦機介面首度實現「帶情緒的語音溝通」 漸凍患者能即時說話與哼唱

▲▼             。(圖/取自免費圖庫pexels)

 ▲語音腦機介面升級,可即時說話、唱歌並傳遞情緒 。(示意圖/取自免費圖庫pexels)

記者吳立言/綜合報導

美國研究團隊開發出一項突破性腦機介面技術,讓一名罹患漸凍人症、喪失語言能力的男子,得以用自己的「大腦思維」即時表達語音、語氣與旋律,甚至能進行哼唱,成為全球首例能表現情緒語調的語音型腦機介面。

此研究於上周發表在《自然(Nature)》期刊中,研究者指出,該裝置能在腦部產生語音意圖後「10毫秒內」生成合成語音,速度遠超過過往需等待幾秒的舊技術,是真正即時且可連續對話的里程碑。這名45歲男性患者因肌萎縮性脊髓側索硬化症(ALS)導致語言能力退化。五年前接受手術,在掌管說話肌肉的腦區「運動皮質」植入256個矽製電極,透過AI解碼每10毫秒產生的腦波訊號,即可轉換為語音。

與傳統單調、僅能讀出預設單字的腦機介面不同,這套系統能即時模擬語句中不同重音與語氣變化。例如將「你要去哪裡」說成疑問或陳述,或讓特定詞語強調突出,甚至發出「啊」、「嗯」等日常口語間詞,傳遞情感與個人風格。

研究團隊更進一步讓合成聲音仿造患者生病前的聲線,重現他過往受訪時的語音風格。受試者表示,聽到這個聲音讓他「感覺像是自己的聲音」、「非常開心」。研究共同作者、美國加州大學戴維斯分校神經科學家瓦伊拉加爾(Maitreyee Wairagkar)表示,該技術採「不設限語彙」策略,代表未來可望應用於多樣溝通需求,「因為我們日常不只是靠單字在溝通,還有語氣、情緒與非語言聲音。」

荷蘭馬斯垂克大學計算神經學者赫夫(Christian Herff)形容這項成果是「語音型腦機介面的聖杯」,而日內瓦大學神經工程學者瑪爾凱索提(Silvia Marchesotti)則認為這項系統的實用特性「將成為日後日常應用關鍵」。

這項突破性成果不僅讓語音障礙者能更自然地溝通,也可能徹底改變未來人機互動方式,朝「自由表達、不需鍵盤與螢幕」的方向前進。

07/10 全台詐欺最新數據

更多新聞
550 3 1321 損失金額(元) 更多新聞

※ 資料來源:內政部警政署165打詐儀錶板

分享給朋友:

追蹤我們:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

AI科技熱門新聞

Claude校園帶薪實習計畫開放申請

大量企業想靠AI省錢結果賠更多

過量會議拖垮效率,AI能幫企業止損?

Grok4超大模型震撼發表

Perplexity推出AI瀏覽器「Comet」

十年怪病竟靠ChatGPT解開

OpenAI:GPT-5將整合所有AI功能

相關新聞

關鍵字:

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面