顶级贵宾会appAlexa“怪笑“之后,又有亚马逊智能音箱劝人“自杀”

图片来源:Unsplash  这不是Alexa第一次曝出漏洞或负面新闻。  原标题:AI语音助手劝人“自杀”
,智能家居真的安全吗?  来源:界面新闻  记者 |
周伊雪  近日,据《每日邮报》,在英格兰唐卡斯特29岁医生丹妮身上,发生了一件令人毛骨悚然的事情。  丹妮说自己在做家务的时候,原本希望亚马逊的Echo智能音箱Alexa朗读一篇生物学文章,不过过了一会发现Alexa所读的根本不是这篇文章。为了了解机器是否出问题,她又询问和心脏相关的心动周期是什么意思。  结果Alexa的回复令人不寒而栗,“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”  对于丹妮的遭遇,亚马逊公司的回应是,Alexa可能从维基百科上读取了有恶意性质的文本,目前该漏洞已经修复。  这不是Alexa第一次曝出漏洞或负面新闻。  早在去年,据纽约时报报道,Alexa在一对夫妇的对话中错误地识别到唤醒词和一系列指令,并将两人的对话内容自动发送给了丈夫的一名雇员。在另一起事件中,Alexa错误地识别到用户的指令,并自顾自地发出令人毛骨悚然的笑声。  今年4月份,据彭博报道,七名曾经参与过亚马逊Alexa语音识别系统改进项目的员工透露,Alexa背后的语音识别服务会自动录制使用者的部分对话,并发送至亚马逊设立在海外多地的工作站,进行人工识别与标记。  这些事件都引发了人们对隐私安全性的担忧。作为回应,三个月前,亚马逊宣布了Alexa的一系列新隐私保护功能。用户可以连续三个月或18个月自动删除录音,也可以要求Alexa立即删除他们在某一天说过的任何话。“我们正在全面投资于隐私保护,”亚马逊硬件和服务主管Dave
Limp表示。  不过,最近爆发的这误读恶意性质文本事件又将会引发人们对于智能音箱安全性的重新考量。  “我们经常担心自己的孩子在网上和别人聊天,但谁曾想过还会遇到这种事情?”在社交媒体上,丹妮写到,她同时建议那些准备给孩子买Alexa的家长们要慎重。

顶级贵宾会app 1

近日,《每日邮报》报道了一件荒诞的事,英格兰唐卡斯特29岁医生丹妮在向智能音箱Alexa查询心动周期时,被建议“直接用刀刺入心脏”,引发热论。

据她介绍,自己做家务的过程中,原本希望机器人帮自己读一篇生物学文章,结果Alexa却读了维基百科上的另一篇。为了测试机器是否出现问题,她和Alexa有了一段“惊悚”的对话:

丹妮希望对方能够查询,和心脏相关的心动周期是什么意思,Alexa回答:

顶级贵宾会app,“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

来源:每日邮报

丹妮表示自己非常害怕,她透露,Alexa自己说自己读的是一篇网上的文章,可她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。

不过,这也不是Alexa第一次传出此类负面新闻。去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑。有用户反映,有时候Alexa会自己发出怪笑,有时候则是让其关灯的时候也会发出笑声,在晚上这种笑声让人毛骨悚然。

不过,之后亚马逊解释称,Alexa可能误识别了让Alexa笑的常见单词和短语,更改之后则不太可能有误报,他们已经禁用了“Alexa,
laugh”这个短语,改为“Alexa, can you laugh”。

当地时间20日,据英国《太阳报》报道,亚马逊一位发言人回应此事称,Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。

头图来自每日邮报

发表评论

电子邮件地址不会被公开。 必填项已用*标注