小心!AI換臉詐騙只用照片就可生成 拿半小時聲音檔還能生成模組

▲AI,人工智慧,人工智能。(圖/CFP)

▲大陸近日傳出「AI換臉」詐騙事件,民眾需多加注意。(示意圖/CFP)

記者魏有德/綜合報導

AI技術逐漸融入現代人的生活,不過,詐騙集團也開始利用高科技犯罪,用AI換臉技術假裝親友,再加上預先生成的聲音模組,透過視訊通話對被害人實施詐騙,不得不防。大陸近日傳出有科技業高管被此類技術詐騙數百萬人民幣,還有逾90萬元仍未追回,讓外界對新型態的「AI詐騙」更加關注。

▲AI,人工智慧,人工智能。(圖/CFP)

▲AI技術日新月異,連真人說話的聲音也可在幾日內模擬出來。(示意圖/CFP)

《中新經緯》報導,目前,AI換臉隨處可見,在短視頻(短影音,下同)平台,不少用戶都體驗過換臉帶來的新鮮感。這項技術也越來越成熟,僅需提供一張照片,就可以讓你變成視頻中人,或直接生成會眨眼、張嘴的視頻。

化名「七七」的網路用戶主要透過網上接單用AI生成影片營生,他表示,只需提供一張背景乾淨的正面照,就能生成眼睛嘴巴都會動的影片,「如果提供文字,還可以讓視頻中的人物口型對上,能連續播放1分鐘。」

「七七」指出,製作一套「露臉且說話」的影片成本並不高,用照片生成一段1分鐘時長的影片僅需30元人民幣(約131元新台幣)左右,「假使影片時長較短、畫面解析度要求不高,價格還可以再降,幾塊錢一段都可以。」

除AI換臉愈發普及,用AI合成或仿製聲音也越來越常見。用AI仿製聲音的商戶透露,只需要提供一段10分鐘至30分鐘的聲音素材,要求沒有雜音,就能用2天左右時間生成一個專屬模型,「後續輸入任何文字,發出的都是這個人的聲音,一般來說,提供的素材時間越長,最終相似度越高。」

對於AI詐騙案例逐漸增加,包括「北京反詐」在內的各平台均稱,「詐騙成功率接近100%」,同時,官方也提醒大眾,一般民眾對新科技辨別能力不強,這種新型AI詐騙給中老年人更是帶來挑戰,「涉及財務往來,務必通過電話、見面等最樸素的途徑核實確認,不要未經核實隨意轉帳匯款,不要輕易透露自己的身份證、銀行卡、驗證碼等信息(資訊)。」

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面