假嬰兒橫死加薩! 以哈戰爭出現大量AI「深度偽造」

▲以巴衝突。(圖/路透)

▲以哈衝突充斥大量假訊息,隨著生成式AI的飛躍進展,如今距離真相恐怕更遠了。(圖/路透)

記者張靖榕/綜合外電報導

巴勒斯坦激進組織哈瑪斯10月7日大規模突襲以色列致爆發戰爭以來,加薩大量傷亡的平民中有許多是孩童和嬰兒,如今卻爆出,多張有數百萬次瀏覽的嬰兒橫死血照,其實竟是深度偽造(Deepfakes)的假圖片。

美聯社報導,這些利用AI進行深度偽造的假圖片已經有數百萬人次的瀏覽,然而只要仔細一看,就可觀察出其中端倪,例如手指以怪異的方式蜷曲、眼睛有不自然的光線等,這些都是AI繪圖的小破綻。

以色列與哈瑪斯的戰爭中,可以痛苦且清楚地看出AI作為政治、輿論宣傳工具的強大潛力,AI被用來創造出逼真的大屠殺照片,自從10月爆發戰爭以來,這些憑空製造的圖片在社群媒體上廣傳,並被用來誤導輿論和作出不正當的指控。

雖然目前在網路上被熱議的不實指控多數不用靠AI,而是仍然仰賴傳統的消息來源,但進步的科技來勢洶洶,而且受到的監督更少。這讓AI作為另一種形式的武器潛力變得顯而易見,並且能讓人一窺未來不只衝突,還有選舉和其他大事件的樣貌。

美國商業情報公司「CREOpoint」CEO戈登斯坦(Jean-Claude Goldenstein)表示,「(一切)在變得更好之前,會先變得更糟,非常糟。」CREOpoint是一家在舊金山和巴黎都有據點的科技公司,他們同樣利用AI技術,但是用來評估網路上各種言論的可信度。不只如此,該公司還建立了一個關於加薩戰場上最受到關注的多個深度偽造事件的數據庫,「照片、影片和錄音檔:在生成式AI的幫助下,情況會升級到你從未見過的地步。」

在部分案件裡,可見在其他衝突或災難事件中被拍下的照片,會被移植到以哈戰爭中,偽裝成新聞消息。在不同案例中,AI被用來「無中生有」製造出殘忍景象,像是一張在衝突剛爆發時受到大量關注的照片 ─ 一名嬰兒在爆炸殘骸中大哭,就是假的。

其他生成式AI繪製出的照片和影片,還包括以色列飛彈襲擊後的現場、坦克車駛過已被炸成廢墟的街區,以及人們在殘磚斷瓦中找尋失蹤家人的畫面。

在許多案例中,這些深度偽造的畫面裡都會出現「嬰兒、孩童或家眷的遺體」,它們被設計來盡可能在網路上觸動人們的強烈情感。在以色列發動報復侵略初期最血腥的時候,以色列和哈瑪斯的兩派支持者都互相指控對方傷害嬰兒和孩童,這時候經過深度偽造的照片一釋出到網路上,瞬間被雙方拿去當作「證據」,證明自己是對的,而對方是殘忍的。

非營利組織、打擊數位仇恨中心CEO阿罕默德(Imran Ahmed)表示,創造這些深度偽造影像的「宣傳工作者」,都擁有觸及人們心底深處最強烈、最衝動的情感與焦慮情緒的技巧,他說不論是經過深度偽造的嬰兒,或是在其他戰事中真實存在的嬰兒受害者,在觀者眼裡觸發的情緒是一樣的。

AI造成的威脅極大,每當有一場新的衝突、戰事,或是國際社會大事件、選舉季節,都為利用生成式AI製造假訊息提供了嶄新的機會,這讓許多AI專家和政治科學家警告,明年諸如美國、印度、巴基斯坦、台灣、烏克蘭、印尼和墨西哥等國家,在舉行大選的時候也會受到這類威脅。

隨著生成式AI的「蓬勃發展」,許多新創科技公司都在針對如何識別深度偽造研發相關技術。挪威公司「Factiverse」聯合創辦人阿美利(Maria Amelie)指出,下一波AI浪潮將會是「我們如何核實這些流傳的內容;你如何識別誤導訊息;你如何分析內容去決定它是否可信。」

「Factiverse」建立了一套AI程序,專門識別其他AI程序製造出的錯誤或具有偏見的訊息。

類似的程序和計畫很快就會是教育界、媒體界、金融分析界和其他領域感興趣的東西,因為它們可以幫助識別錯誤、抄襲或是詐欺的內容。

雖然已有不少人在研究如何反制和破解這些假消息,但利用AI散布謊言的人似乎總是超前一步。美國電腦科學家、水牛城大學教授都爾曼(David Doermann)表示,若想要有效地回應AI假訊息帶來的政治與社會挑戰,就必須仰賴更厲害的科技和更完善的監管制度。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

最夯影音

更多

熱門快報

回到最上面