AI模仿「兒子聲音求救」騙走老夫婦64萬! 真聲遭竊漏洞竟在這

▲▼機器人,人工智慧,AI。(圖/CFP)

▲AI技術已能夠模擬逼真人聲,卻被不肖人士用來詐騙。(示意圖/CFP)

記者吳美依/綜合報導

加拿大一對夫妻接到「兒子」來電表示出車禍急需法律費用,趕緊透過比特幣匯款2.1萬美元(約新台幣64萬元),後來才知道慘遭詐騙,原來熟悉嗓音竟是人工智慧(AI)模擬而成。《商業內幕》指出,詐騙集團可能從當事人在YouTube發布的雪上摩托車影片擷取音軌,進而仿造聲音。

《華盛頓郵報》報導,受害夫妻接到第一通電話,從自稱「律師」的男子口中得知,兒子班傑明(Benjamin Perkin)在一場車禍中撞死外交官而入獄,話筒還傳來「班傑明的聲音」開口要錢。後來,他們又接到第二通電話,「律師」宣稱班傑明需要2.1萬美元法律費用才能出庭。

夫妻倆愛子心切,迅速籌措資金匯款,後來才隱約感覺有些奇怪。不過,直到「真正的」班傑明當天稍晚打電話過來,他們才驚覺被騙。

班傑明受訪時說,那個聲音「足夠接近(我的聲音),讓我的父母真的相信他們在跟我說話。」儘管一家人趕緊向加拿大當局報案,但「錢不見了,沒有保險,拿不回來了。」

▲▼美國人工智能公司「OpenAI」開發的「ChatGPT」掀起熱議。(圖/路透)

▲美國人工智慧公司OpenAI開發的ChatGPT掀起熱議。(圖/路透)

《商業內幕》報導,更強大的人工智慧興起之際,冒充身分的詐騙案也持續增多。不過,早在ChatGPT問世之前,涉及AI技術的詐騙就已經出現。

2019年,英國能源公司(British Energy)一名經理把24萬多美元匯入一個匈牙利帳戶,因為他以為「老闆」打電話要求這麼做。今年1月,研究AI聲音複製及語音合成的美國新創公司ElevenLabs也表示,他們注意到有人「把我們的科技用於惡意目的」,出現「越來越多聲音複製的濫用案例」。舉例來說,4chan等匿名論壇上就有不肖人士使用AI技術模擬與名人相似的聲音,說出種族歧視等不恰當言論。

美國聯邦貿易委員會(FTC)去年一共接獲240萬人通報詐欺案,最常見類型就是冒名頂替者詐騙(Imposter scams),儘管案件數比前一年低,損失金額卻更高,達到88億美元。

FTC已經新成立一間科技辦公室,專門調查有發展前景且可能使用AI的公司,是否嘗試降低產品可能造成的風險。發言人格倫瓦爾德(Juliana Gruenwald)表示,他們已經發現社群媒體上的詐欺案激增,「產生看似真實影片、相片、音檔及文本的AI工具可能加速這個趨勢,讓騙子更容易接觸受害者,速度也更快…我們也關心深偽技術(deepfake)與其他基於人工智慧的合成媒體的風險,它們變得越來越容易創作及散布,將被用於詐騙。」

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面