▲語音腦機介面升級,可即時說話、唱歌並傳遞情緒 。(示意圖/取自免費圖庫pexels)
記者吳立言/綜合報導
美國研究團隊開發出一項突破性腦機介面技術,讓一名罹患漸凍人症、喪失語言能力的男子,得以用自己的「大腦思維」即時表達語音、語氣與旋律,甚至能進行哼唱,成為全球首例能表現情緒語調的語音型腦機介面。
此研究於上周發表在《自然(Nature)》期刊中,研究者指出,該裝置能在腦部產生語音意圖後「10毫秒內」生成合成語音,速度遠超過過往需等待幾秒的舊技術,是真正即時且可連續對話的里程碑。這名45歲男性患者因肌萎縮性脊髓側索硬化症(ALS)導致語言能力退化。五年前接受手術,在掌管說話肌肉的腦區「運動皮質」植入256個矽製電極,透過AI解碼每10毫秒產生的腦波訊號,即可轉換為語音。
與傳統單調、僅能讀出預設單字的腦機介面不同,這套系統能即時模擬語句中不同重音與語氣變化。例如將「你要去哪裡」說成疑問或陳述,或讓特定詞語強調突出,甚至發出「啊」、「嗯」等日常口語間詞,傳遞情感與個人風格。
Our brain-to-voice synthesis brain-computer interface paper was published in @Nature today! This neuroprosthesis synthesized the voice of a man with ALS instantaneously, enabling him to ‘speak’ flexibly and modulate the prosody of his BCI-voice. 1/7
— Maitreyee Wairagkar (@Maitreyee_W) June 12, 2025
Paper: https://t.co/STKtfgypAW pic.twitter.com/Qv72dYXSZx
研究團隊更進一步讓合成聲音仿造患者生病前的聲線,重現他過往受訪時的語音風格。受試者表示,聽到這個聲音讓他「感覺像是自己的聲音」、「非常開心」。研究共同作者、美國加州大學戴維斯分校神經科學家瓦伊拉加爾(Maitreyee Wairagkar)表示,該技術採「不設限語彙」策略,代表未來可望應用於多樣溝通需求,「因為我們日常不只是靠單字在溝通,還有語氣、情緒與非語言聲音。」
荷蘭馬斯垂克大學計算神經學者赫夫(Christian Herff)形容這項成果是「語音型腦機介面的聖杯」,而日內瓦大學神經工程學者瑪爾凱索提(Silvia Marchesotti)則認為這項系統的實用特性「將成為日後日常應用關鍵」。
這項突破性成果不僅讓語音障礙者能更自然地溝通,也可能徹底改變未來人機互動方式,朝「自由表達、不需鍵盤與螢幕」的方向前進。
讀者迴響