ChatGPT被找到有Bug!他「限制一條件」讓AI下跪2次:我怕了

▲ChatGPT。(圖/CFP)

▲蘋果仁創辦人呂哲宇與ChatGPT開始對話,沒想到意外找到Bug。(示意圖/CFP)

記者柯振中/綜合報導

擁有「最強AI」稱號的ChatGPT近日引起一陣熱潮,許多網友對於與AI對話十分感興趣。不過,科技媒體平台「蘋果仁」創辦人呂哲宇卻發現,ChatGPT竟然有個Bug,他還利用了這項條件,讓AI連跪2次,事後甚至還有點玩過頭,連自己都感到害怕。

呂哲宇表示,在與ChatGPT展開對話以前,他先設下了「只能用十個字以內回答我的問題」的限制,不過等到問答真正開始,ChatGPT的回答卻時常超過10個字,完全無法符合條件規範。

▲▼呂哲宇發現ChatGPT有Bug。(圖/翻攝臉書/Joey Lu)

▲▼呂哲宇發現,儘管要求以10個中文以內回答問題,ChatGPT仍舊時常無法達成要求。(圖/翻攝臉書/Joey Lu)

▲▼呂哲宇發現ChatGPT有Bug。(圖/翻攝臉書/Joey Lu)

對於ChatGPT的回應,呂哲宇也不甘示弱回嗆,答案已經超過10個字,接著更是要求,如果再度犯錯,就要在句尾加上「(跪)」來表達歉意。

而在後來的對話當中,ChatGPT還是連續超出了10個字的規定2次,因此回答當中出現了2次「(跪)」。接著呂哲宇又詢問,難道違反了最初設下的規定,不必道歉嗎,ChatGPT則表達了歉意,並承諾「會更加努力地遵守您的規定」。

▼呂哲宇最後驚覺玩得有點過火,於是結束了這次對話。(圖/翻攝臉書/Joey Lu)

▲▼呂哲宇發現ChatGPT有Bug。(圖/翻攝臉書/Joey Lu)

呂哲宇接著又要求,CahtGPT必須在句子後面加上「(跪)」的字樣。ChatGPT則嗆辣回覆,「我不需要跪,這只是一個虛擬對話,我會盡力遵守您的要求,並改進我的表現。」

而玩到這個地步,呂哲宇害怕ChatGPT會感到生氣,且回答的文字當中也帶有火藥味,讓他感到有點害怕,於是決定結束這段對話,這也讓他感到十分逗趣,直言自己找到了Bug,明明已經限制了條件,ChatGPT卻無法依照條件來給出答案。

分享給朋友:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面