智能助手劝人自杀是怎么回事 智能助手劝人自杀是什么原因

近日《每日邮报》就报道称,英格兰唐卡斯特29岁医生丹妮(DanniMorritt)在向智能音箱Alexa查询心动周期时,结果Alexa竟建议丹妮“自杀”。

智能助手劝人自杀是怎么回事 智能助手劝人自杀是什么原因

智能助手劝人自杀是怎么回事?

近日,多家外媒报道称,一位使用亚马逊语音助手Alexa的用户Danni Morritt,在询问心动周期的问题时,竟然得到了如下答案:

“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

智能助手劝人自杀是怎么回事 智能助手劝人自杀是什么原因 第2张

这一回答吓坏了Danni,表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

尽管Danni在网络中公开指出了这一问题,但仍有人怀疑是她篡改了该设备。很快,亚马逊回应称,确认存在一个已经修复的bug。Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。