siri

安全研究人员提醒AI助理需谨防人耳听不到的“海豚攻击”

  • 浏览次数 12683
  • 喜欢 0
  • 评分 12345

中美研究人员已经验证了一种可向 Siri 等 AI 助理发出“隐藏式攻击命令”的方法,因其采用了人耳察觉不到的音频,从而强迫智能助理执行非机主下达的恶意命令。《纽约时报》指出,如果被别有用心的人得逞,这种攻击手段可用于拨打电话、打开网站、甚至更糟糕的事情。根据来自加州、伯克利、以及乔治城大学的学生团队在本月发表的一篇研究论文,他们甚至可以将恶意命令嵌入音乐录音或口述文本中。

当在亚马逊 Echo 或苹果 iPhone 附近播放时,普通人只能听到单纯的歌曲或语音。但智能设备能够捡拾起一条潜在的指令,比如向购物车中添加一些东西。

往更危险的层面去讲,恶意攻击者可以下达锁门、卷钱、或购买线上商品等操作 —— 尽管在通常情况下,为了不引起事主的注意,事情都是静悄悄地进行、涉及金额也不会太大。

然而论文作者之一、来自加州大学博客利分校的五年制计算机安全博士生 Nicholas Carlini 坚信,或许早已有恶意攻击者实施过类似的技术:

我们想要知道自己是否能够让它变得更加隐秘,虽然没有证据表明这些技术已经跑出了实验室,但它被人利用只是时间的问题。我的的猜测是,恶意攻击者早已雇人干过我提到的事情。

【视频】:Dolphin Attack_ Inaudible Voice Command

去年的时候,美国普林斯顿和中国浙江大学的研究人员们已经执行过类似的测试,证明了 AI 助理可以通过不被人耳所听到的音频给激活。

如上方的“海豚攻击”演示所示,研究人员打造了一台可以下达隐藏命令的发送器,并顺利地让手机执行了拨打特定电话的操作(另有拍照和发送短信等测试)。

当然,海豚攻击的范围是有限的,因为攻击者必须足够接近接受设备。

 

稿源:cnBeta,封面源自网络;

相关阅读:Alexa and Siri Can Hear This Hidden Command. You Can’t.

封面