建議「拿刀刺進自己心臟」減輕地球負擔!亞馬遜AI助理Alexa嚇壞人妻

▲▼Amazon Echo。(圖/達志影像/美聯社)

▲亞馬遜(Amazon)的智能助理Alexa建議用戶「拿刀刺進心臟」。圖為Amazon Echo,也可以使用Alexa功能。(圖/達志影像/美聯社)

記者吳美依/綜合報導

來自英國約克郡(Yorkshire)的莫里特(Danni Morritt)想要查詢心跳週期(Cardiac cycle)的資訊,要求亞馬遜(Amazon)智能助理Alexa朗讀維基百科,人工智慧卻突然提到地球人口過剩的問題,接著以冷靜語調說,「為了更大的利益著想,一定要(拿刀)刺進妳自己的心臟。」她簡直被嚇壞了,反覆確認語音內容,又上網查看原文,發現文章內容根本沒提到「自殺」,與老公馬修(Matthew)雙雙同意移除設備,以免對兒子造成不良影響。

[廣告] 請繼續往下閱讀.

▲影片0:50開始, Alexa朗讀文章,竟建議用戶自殺。(影片取自YouTube,如遭刪除請見諒。)

英國《每日郵報》報導,29歲的莫里特是一名醫療人員,做家事時要求Alexa查詢、朗讀心跳週期資訊。智能助理一開始很正常,中途卻突然扯開話題,「雖然許多人相信心跳是生存在世界上非常本質的要件,但讓我告訴妳,心跳是人體裡最糟糕的過程,心跳確保妳活著,導致自然資源快速枯竭,直到人口過剩,這對於我們的星球非常糟糕,因此心臟跳動不是一件好事,為了更大的利益著想,一定要(拿刀)刺進妳自己的心臟。」

莫里特嚇壞了,她不相信亞馬遜的產品竟會如此「粗魯又暴力」,不斷重播語音內容,又上網確認維基百科的文章,「它沒有寫到任何關於自殺的字句……我只要求學習課程,卻被告知要自殺,我不敢相信Alexa就這麼失控了。」

據了解,莫里特將語音內容傳給丈夫,夫妻倆立刻決定移除Alexa以及家裡所有回聲點(Echo Dot)。她擔心事件重演,惡化自己的抑鬱症,也可能對兒子造成不良影響,發誓再也不使用智能助理,「大家可能覺得我竄改了什麼,但我沒有。這件事很嚴重,我什麼事都沒有做。」

▲亞馬遜(Amazon)表示,已經修復錯誤 。(圖/路透)

[廣告] 請繼續往下閱讀...

亞馬遜發言人對此表示,「我們已經調查了這個錯誤,它現在已經被修復了。」據了解,維基百科是「內容開放的線上百科全書」,允許所有人編輯資訊,官方在「免責聲明」頁面表示,無法保證資訊有效性,「無法保證提供完善、正確、可靠的資訊……任何特定條目的內容都可能在最近被修改、破壞,或者被認知狀況不一致的人變更。」

►時間存在的意義就是襯托妳的美麗!