AI說得好聽,人心卻不買單! 研究揭露6282人真實反應

▲▼OpenAI打算研發新的搜尋引擎,結合ChatGPT的功能,與Google展開競爭。(圖/達志影像/美聯社)

▲受試者得知來源是AI,對其回應的同理心評價會下降。(圖/達志影像/美聯社)

記者陳致平/綜合報導

對於AI在情感交流中的應用,您認為最大的挑戰會是什麼?人工智慧(AI)特別是大型語言模型(LLMs),展現出卓越的社交情感能力,這可能有助於改善人機互動和AI的情感支持能力。然而,一項最新研究顯示,即使 AI 的回覆展現出同理心,當人們知道或懷疑對方是 AI,對這些回覆的同理心評價就會下降。

一項名為《人工智慧與人類同理心感知價值之比較》的研究近期於國際期刊《自然人類行為》(Nature Human Behaviour)發表。研究團隊透過線上平台招募了6,282名受試者,請他們寫下近一個月個人情感經歷,隨後由AI生成同理心回覆供其評價,同時會由研究人員告知他們,「回應是來自AI還是人,然後請他們評分自己收到的回應有沒有同理心、同理心的高低等」。

[廣告]請繼續往下閱讀...

研究結果顯示,透明化AI的參與,會直接影響人們對其情感內涵的接受度。被歸因於人類的回覆,無論在同理心或支持性方面,都獲得了更高的評價,並引發更多正面情緒,減少負面情緒,這明顯優於被歸因於AI的回覆。更值得注意的是,即使人工智慧(AI)展現出看似具有同理心的回應,但當研究參與者得知或懷疑其來源為AI時,他們對這些回應的情感支持與真誠程度感知會隨之下降。

滑手機,訊息,手機,傳訊息,講電話,LINE,IG,私訊,聊天,感情,劈腿,偷吃,正宮,抓姦。(圖/記者周亭瑋攝)

▲研究團隊招募6,282名受試者進行實驗,結果發現,即使AI的回覆內容看似有同理心,但在接受者眼中,其真誠與支持性仍遠不及人類回覆,AI傳遞的溫度和情感「難以被接收」。(示意圖/記者周亭瑋攝)

研究者建議未來在開發AI時,應審慎界定AI在情感互動中的角色與界線,並持續評估不同群體對AI回覆的接受程度,同時追蹤長期互動是否能建立信任或引發負面情緒。

對於這項研究發現,台灣科技媒體中心(SMC)邀請研究AI與心理的專家,彰化師範大學輔導與諮商學系教授謝麗紅進行解析。她認為,我們不應期待用AI取代人與人之間的情緒關係,特別是在「同理心」這件事上。上述研究揭示的事實是,即使AI的回應內容再精準,人們依然傾向相信「真正的同理心只能來自人類」。

謝麗紅進一步解釋,這並非單純的技術問題,而是牽涉到我們對「真誠」、「理解」與「被關心」的根本心理需求。AI 不是「真人」,不會感受到感受與情緒,也不會經歷失落,它能做的是模擬,無法達到真的「共感」。這些「限制」反而構成了在我們人彼此之間同理的真實與珍貴。

謝麗紅指出,這篇研究最深層的張力,來自於「誠實揭露AI來源」與「維持情感效果」之間的矛盾。現今社會鼓勵科技透明,但透明本身卻可能削弱使用者的情感體驗。這不僅是技術問題,更是倫理問題。謝麗紅建議,若未來支持心理健康時要大量運用AI,需要先建立幾個關鍵前提,包含AI是輔助而非替代專業人際關懷、要清楚告知使用者AI的角色與限制,同時,政策和研究都應監測長期影響、建置倫理規範監督機制,防範過度依賴與倫理風險。

謝麗紅表示,AI可以提供初步傾聽、協助整理情緒、提供解決問題的方法、降低心理求助的門檻,但不應被誤認為能夠真正理解人心或取代真實的人際關係。謝提醒,我們需要思考,當人們開始尋求AI來傾訴與療癒時,是不是反映了現代社會人際關係、心理支持的斷裂與孤立。

謝麗紅認為,我們在擁抱AI發展的同時,必須反思,與其仰賴AI 扮演情感關係的角色,我們更該致力於經營人與人之間信任與陪伴的真實關係。科技可以輔助我們,但無法替代我們成為彼此的信任關係與情緒支持的港灣。

對此,謝麗紅的觀點也呼應了這篇研究的結論,即使人工智慧在模擬同理心方面能力卓越,但當人們得知或懷疑其AI身分時,對其情感支持與真誠度的感知便會顯著降低,另一個有趣的現象的趨勢為「在尋求情感投入時,人們始終傾向選擇與人類互動,而非AI」。

12/27 全台詐欺最新數據

更多新聞
404 2 5516 損失金額(元) 更多新聞

※ 資料來源:內政部警政署165打詐儀錶板

分享給朋友:

追蹤我們:

※本文版權所有,非經授權,不得轉載。[ ETtoday著作權聲明 ]

相關新聞

讀者迴響

熱門新聞

最夯影音

更多

熱門快報

回到最上面