成立不到1年!OpenAI解散風險控管團隊 主管親揭:和領導層分歧

AI風險控管團隊「成立不到1年就解散」 多數成員已從OpenAI離職

▲OpenAI解散風險管控團隊。(圖/達志/美聯社)

圖文/CTWANT

在生成式人工智慧問世之後,市場上一直有「AI即將取代人類」的說法,為此,OpenAI曾於2023年7月宣布成立「Superalignment」團體,要開發出一套媲美人類智慧的AI,用這套AI來管理其他AI。但如今有消息指出,這個團隊成立至今不到1年,目前已宣布解散,除少部分成員分配到其他部門外,大部分成員都已離職,當中也包含2名主管。

據了解,Superalignment這個計畫是於2023年7月時啟動,當時是由OpenAI共同創辦人Ilya Sutskever與負責AI機器學習的專家Jan Leike所領導。

這個計畫目標是要開發出一套媲美人類智慧水平的AI模型,接著透過大量的計算,讓其計算結果與人類的想法、利益一致,進而透過這套AI模型來管理其他AI模型。在計畫運作之初,OpenAI就承諾會在未來的4年內,將公司的20%算力投入這項計畫。

但目前卻有消息指出,Superalignment不僅已宣布解散,Ilya Sutskever與Jan Leike等2名主管也從OpenAI離職,2人也在社群網站上發文證實此事。

後續,Jan Leike又在社群網站上發文,透露更多離職的原因。Jan Leike在文章中寫著「我加入OpenAI,是因為我認為這間公司是進行這項研究的最佳地點。但過去相當長一段時間告訴我,我與OpenAI的領導層對於公司核心項目的想法有明顯分歧,目前已經達到臨界點」。

Jan Leike後續也寫道,他認為目前應該要對下一代的AI模型做好準備,尤其在涉及安全、監控、準備、穩健性、一致性、保密性等問題,都要想辦法解決。而時至今日,Jan Leike不覺得公司走在解決問題的道路上。

也有消息人士表示,目前OpenAI的確解散了「Superalignment」團隊,除部分成員會轉移到其他部門外,其中大多數成員已從OpenAI離職。

AI風險控管團隊「成立不到1年就解散」 多數成員已從OpenAI離職

▲Jan Leike的離職聲明。(圖/翻攝自社群網站X)

延伸閱讀
新店男高中生課後「捷運站外賣菜」 坎坷身世曝光…校方揭奶奶用意
市價破4千萬!澳洲5寶媽運毒來台被捕 家鄉連署救援:她是無辜的
女深夜翻看手機 無意中發現13歲女兒「秘密」!警方已立案

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面