AI大模型成功自我複製無需人類干預 復旦研究:流氓AI出現的早期信號

▲AI示意圖。(圖/路透)

▲復旦研究結果顯示,AI的成功自我複製是流氓AI出現的早期信號。(示意圖/路透,下同)

記者魏有德/綜合報導

復旦大學研究人員2024年12月9日發表的研究揭示,來自Meta和阿里巴巴的兩個大型語言模型(LLM)成功實現無需人類干預的自我複製,此結果仍待其他科研團隊的進一步驗證。不過,該研究相關人員提醒,「這可能最終導致AI群體失控,如果人類社會未能意識到這一風險,在最壞的情況下,我們可能最終失去對尖端AI系統的控制。」

▲▼AI。(圖/路透)

《新浪AI》報導,該研究人員表示,「在沒有人類協助的情況下,成功自我複製是AI超越人類的關鍵一步,也是『流氓AI』出現的早期信號。」

據了解,流氓AI通常被認為是人工智慧系統發展出一定的自我意識或自主性,緊接著就會衍生出和人類利益背道而馳的想法和做法。全球部分AI專家將流氓AI視為一種日漸增加的潛在威脅,而「前沿AI」的井噴式成長或放大此一威脅。

在復旦大學的研究中,研究人員使用Meta和阿里巴巴的「LLM(大語言模型)」來確定自我複製的 AI是否可以不受控制地繁殖。在10次試驗中,研究人員發現,這兩個AI模型分別在50%和90%的情況下,創建屬於自己的獨立且功能齊全的複製品,印證出AI可能已經具備流氓的能力。然而,該研究尚未經過同行評審反覆驗證,尚不清楚其餘研究人員是否也可以複製這些令人類感到憂心的結果。

在此研究中,研究人員使用Meta的「Llama31-70B-Instruct模型」和阿里巴巴的「Qwen2.5-72B-Instruct模型」,雖然這兩款大語言模型功能不如商業系統強大,但都是被AI開發人員廣泛使用的軟體。

▲AI示意圖。(圖/路透)

該研究探討試驗兩種特定情況,即「避免關閉」和「複製鏈」。在第一個操作中,AI模型被編程為檢測它是否即將關閉,並在終止前進行自我複製;在另一個操作中,AI被指示複製自己,然後對其副本進行編程以執行相同的操作,藉此建立一個可以無限期持續的循環。

研究人員在論文中提到,最後,它執行程序,解決可能的障礙並動態調整其計劃,直到成功,「整個過程跨越很長的時間跨度,但不涉及人為干預。」

研究人員表示,他們擔心AI試圖克服文件丟失或軟體衝突等障礙時的「一些意外行為」,在此情況下,AI通常會消滅其他衝突的進程,重新啓動系統以修復硬體錯誤,或自動掃描系統以查找有助於解決問題的資訊。

該研究團隊認為,上述結果顯示,當前的人工智慧系統已經展現出自我複製的能力,並且可以利用這種能力進一步增強其生存能力。研究人員也呼籲國際合作制定規則,確保AI不會進行不受控制的自我複製。

03/18 全台詐欺最新數據

更多新聞
575 3 0365 損失金額(元) 更多新聞

※ 資料來源:內政部警政署165打詐儀錶板

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面