OpenAI開出年薪1750萬職缺!壓力山大「風險應變主管」火速上線

▲▼OpenAI執行長奧特曼坦言,新職缺的工作壓力極大。(圖/路透)

▲OpenAI執行長奧特曼坦言,新職缺的工作壓力極大。(圖/路透)

記者羅翊宬/綜合報導

聊天機器人ChatGPT開發商OpenAI正在招募一位「風險應變主管」(Head of Preparedness),年薪55.5萬美元(約新台幣1750萬元)加股票報酬,主要負責檢視公司AI運算模型與產品,及時發現並防範可能被濫用而對人類造成傷害的情況。OpenAI執行長奧特曼(Sam Altman)坦言,這份工作壓力極大,要求即刻投入處理複雜且前所未見的風險挑戰。

根據美媒《商業內幕》,奧特曼在社群平台X指出,隨著AI模型能力快速提升,這些技術不僅帶來便利,也開始呈現嚴峻挑戰,包括對心理健康的潛在影響,以及AI在電腦安全上可能自行發現關鍵漏洞的能力。他形容這份工作就像立刻跳入火坑,必須協助公司衡量模型能力增長可能造成的各種衝擊,並找出限制負面效應的方法。

OpenAI指出,「風險應變主管」將直接負責建立與協調能力評估、威脅模型及緩解措施,打造一套可在營運上擴展的安全流程體系。該職位屬於OpenAI安全系統團隊,涵蓋的風險範圍包括AI導致失業、假訊息、惡意行為濫用、環境破壞,以及人類自主性減損等多項議題。

近年來,隨著ChatGPT在消費市場快速普及,部分使用者將聊天機器人作為心理諮商替代方案,引發心理健康問題,例如助長妄想或自我傷害行為。OpenAI自2025年起與心理健康專家合作,改善ChatGPT對出現精神病徵兆或自殘傾向使用者的互動方式,以降低潛在風險。

OpenAI自創立以來,即將安全機制視為營運核心。然而,隨著產品逐步釋出及營利壓力增加,部分前員工表示,公司開始將獲利置於安全之上。前安全團隊負責人萊克(Jan Leike)於2024年5月辭職時指出,公司偏離了確保技術安全部署的初衷。

萊克表示,「打造比人類更聰明的機器,本質上就是一項危險的行為。過去幾年,安全文化與流程已被光鮮亮麗的產品擠到一旁。」

另一名前員工柯科塔伊洛(Daniel Kokotajlo)也於2024年5月離職,批評OpenAI在追求AGI(通用人工智慧)目標過程中忽視安全。他曾提到,原本約有30人的團隊負責研究AGI安全,後來規模縮減近半。原任「風險應變主管」馬德利(Aleksander Madry)於2024年7月轉任其他職務,使該職位空缺至今。

OpenAI強調,透過此職缺,公司期望建立一個嚴謹、可操作且可擴展的安全管理體系,確保AI在快速進化的同時,能夠在心理健康、網路安全及社會風險等層面受到有效管控,落實以造福全人類為核心的AI使命。

12/27 全台詐欺最新數據

更多新聞
404 2 5516 損失金額(元) 更多新聞

※ 資料來源:內政部警政署165打詐儀錶板

分享給朋友:

追蹤我們:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面