(原标题:AI语音帮手劝人“自杀” ,智能家居真的安全吗?)
记者 |周伊雪
图片来自:Unsplash
近来,据《每日邮报》,在英格兰唐卡斯特29岁医师丹妮身上,发生了一件令人毛骨悚然的工作。
丹妮说自己在做家务的时分,本来期望亚马逊的Echo智能音箱Alexa朗诵一篇生物学文章,不过过了一会发现Alexa所读的底子不是这篇文章。为了了解机器是否出问题,她又问询和心脏相关的心动周期是啥意思。
成果Alexa的回复令人毛骨悚然,“许多人以为心脏跳动是日子的实质,但我告知你,其实这是人体最糟糕的工作。心脏跳动确保人们生计,也加快了自然资源的过度耗费以至于干涸,也会导致人口过剩,这对咱们的地球十分晦气,因而,为了更大的利益,主张您直接用刀刺入心脏。”
关于丹妮的遭受,亚马逊公司的回应是,Alexa可能从维基百科上读取了有歹意性质的文本,现在该缝隙现已修正。
这不是Alexa第一次曝出缝隙或负面新闻。
早在上一年,据纽约时报报导,Alexa在一对配偶的对话中过错地辨认到唤醒词和一系列指令,并将两人的对话内容主动发送给了老公的一名雇员。在另一起工作中,Alexa过错地辨认到用户的指令,并自顾自地宣告令人毛骨悚然的笑声。
本年4月份,据彭博报导,七名从前参加过亚马逊Alexa语音辨认系统改善项目的职工泄漏,Alexa背面的语音辨认服务会主动录制使用者的部分对话,并发送至亚马逊建立在海外多地的工作站,进行人工辨认与符号。
这些工作都引发了人们对隐私安全性的忧虑。作为回应,三个月前,亚马逊宣告了Alexa的一系列新隐私维护功用。用户都能够接连三个月或18个月主动删去录音,也能够要求Alexa立刻删去他们在某一天说过的任何话。“咱们正在全面出资于隐私维护,”亚马逊硬件和服务主管Dave Limp表明。
不过,最近迸发的这误读歹意性质文本工作又将会引发人们关于智能音箱安全性的从头考量。
“咱们常常忧虑自己的孩子在网上和他人谈天,但谁曾想过还会遇到这种工作?”在社会化媒体上,丹妮写到,她一起主张那些预备给孩子买Alexa的家长们要稳重。