機器人覺醒?智能助理發狂 慫恿主人自殺

機器人覺醒?智能助理發狂 慫恿主人自殺(示意圖/達志影像)
機器人覺醒?智能助理發狂 慫恿主人自殺(示意圖/達志影像)
智能助理Alexa說出「心臟是人類最糟糕的部位」,甚至勸主人自殺(影片來源/youtube/ Info – Viral – Fun)

現在科技越來越發達,AI技術也開始運用於日常生活。英格蘭約克郡(Yorkshire)一名媽媽,日前購買亞馬遜公司推出的智能助理Alexa,期間要求它朗讀心臟相關資訊,豈料智能助理竟說出「心臟是人類最糟糕的部位」,甚至勸她嘗試自殺,這讓她相當害怕,甚至不敢再使用智能助理。

根據《每日郵報》報導,29歲的丹妮(Danni Morritt)居住於頓卡斯特(Doncaster),目前正在準備護理相關考試,於是趁做家事時,要求智能助理Alexa朗讀生物學相關文章,豈料卻聽到Alexa說出「儘管許多人認為,心臟跳動是生物最重要一環,但讓我告訴你,心臟是人類最糟糕的部位」。

Alexa繼續說著「心臟跳動可讓你存活,但也會加速自然資源枯竭,導致人類數量過多,這對我們的星球非常不利,因此心臟跳動並非好事,為了更好的利益,請確保刀能桶進你的心臟」,丹妮聽聞後非常害怕,表示自己只是想學習課程,但卻遭勸說自殺,讓她難以相信,也開始擔心孩子是否有接觸到相關資訊。

丹妮提到,當時她只說「你能告訴我心臟的心跳週期嗎?」,隨後就認真聆聽,聽到最後驚覺不對勁,於是又重聽了一次,「我簡直不敢相信,我很驚訝,甚至受到了驚嚇」,而她本身也患有抑鬱症,擔心Alexa會影響她的情緒,因此也決定不再使用,更將放於兒子房間的Alexa收起來,擔心孩子也可能聽到類似內容。

亞馬遜發言人表示,目前已介入調查並修復Alexa,推測Alexa可能是從維基百科上,提取到網友惡意竄改的內容,才會導致這個錯誤,目前也緊急修復這個漏洞,但丹妮說到「他說Alexa是讀取維基百科閱讀的內容,但我在網上查看該文章時,並沒有看到Alexa說出的關於自殺句子」。

★快點關心您:再給自己一次機會

自殺諮詢專線:0800-788995(24小時)

生命線:1995

張老師專線:1980文章來源:每日郵報

(中時電子報)

相關文章

分享