▲IWF去年協助移除29萬1273個涉及兒童性虐影像的網頁,較2014年成立時增加了830%。(圖/CFP)
記者張方瑀/綜合報導
英國科技大臣凱爾近日探訪「網路觀察基金會」(IWF),親眼見證兒童性虐待影像的調查過程後,直言驚恐至極。數據顯示,IWF去年協助移除29萬1273個涉及兒童性虐影像的網頁,較2014年成立時增加了830%
AI技術助長犯罪 兒童房間成性剝削現場
根據《太陽報》報導,凱爾(Peter Kyle)在視察時觀看了一些經過遮罩處理的影像,其中包含由AI生成的兒童性虐待內容。IWF警告,這類影像的數量在過去一年內暴增四倍,技術甚至能將兒童照片「裸化」或將他們的臉部合成至虐待影像上,讓受害者反覆遭受侵害。
凱爾表示,「我看到了人性最邪惡的一面,但同時也深受感動,因為這些人(IWF團隊)正努力保護被剝削的兒童。」他補充,「這些影像有些來自兒童自己的房間,罪犯透過網路滲透到孩子的生活中,利用他們的脆弱進行威脅和操控,這就是犯罪性的性剝削和虐待。」
新法規上路 科技公司須承擔責任
根據英國新版《網路安全法》(Online Safety Act),科技公司從16日起,必須更加積極處理平台上的犯罪行為,否則將面臨最高1800萬英鎊(約新台幣7.3億元)或全球營收10%罰款的重罰。
然而,凱爾批評該法仍有漏洞,並表示若有需要,他願意進一步立法保護兒童,「目前的模式是科技產品直接投入市場,等到問題發生後才想辦法補救。這種情況如果發生在汽車產業,根本不可能被接受,但卻能發生在影響全球一半人口的網路產品上。」
IWF積極查緝 兒童性虐待影像暴增
IWF擁有特殊授權,可主動搜尋非法內容,並與警方及科技公司合作將其下架。數據顯示,IWF去年協助移除29萬1273個涉及兒童性虐影像的網頁,較2014年成立時增加了830%
此外,IWF從2024年迄今已確認245起用AI生成的兒童性虐影像,比2023年的51起增加了380%;其中193起影像過於逼真,必須與真實兒童性虐待影像相同的方式進行處理。
負責監管IWF檢舉專線的麥克納利(Tamsin McNally)透露,「我們每天都會看到成千上萬名兒童遭受性虐待,這種情況難以想像。」她指出,AI技術的發展使得罪犯能輕易製作並散播不雅影像,讓受害者即使長大成人,仍可能再次遭受數位虐待,「當某個影像被觀看一次,受害兒童就會再次受到傷害,這真的令人不忍。」
全球首創 AI性犯罪立法即將上路
英國政府承諾將推出全球首例AI性虐待犯罪法案,以應對日益嚴重的威脅。此外,IWF也推動「Report Remove」服務,允許未滿18歲的兒童匿名檢舉並刪除網路上的裸露或性影像,防止遭受進一步勒索或剝削。
IWF數據顯示,Report Remove在2023年接獲1142件檢舉,比前一年增加44%,其中642件涉及犯罪性兒童性虐待內容;受害者以14至15歲青少年為主,但11至13歲兒童的案例也在增加。
IWF代理執行長雷希爾(Derek Ray-Hill)警告,「兒童性虐待的情況,無論在網路或現實世界,都比社會願意承認的更加猖獗。我們必須誠實面對這個問題,不能再讓犯罪者有更多漏洞可鑽。」
ETtoday新聞雲提醒您:
發現兒少性剝削,請撥打110、113。
移除下架性影像,洽性影像處理中心。
終結性影像,不拍攝、不持有、不下載、不分享。
讀者迴響