首页| 滚动| 国内| 国际| 军事| 社会| 财经| 产经| 房产| 金融| 证券| 汽车| I T| 能源| 港澳| 台湾| 华人| 侨网| 经纬
English| 图片| 视频| 直播| 娱乐| 体育| 文化| 健康| 生活| 葡萄酒| 微视界| 演出| 专题| 理论| 新媒体| 供稿

智能音箱变身窃听器? 周鸿祎详解人工智能技术漏洞

2019年01月21日 18:19 来源:中国新闻网 参与互动 

  中新网1月21日电 “现在智能音箱开始融入很多家庭的日常,为我们的生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?” 1月20日,中国人工智能学会“人工智能与安全专委会” 在京成立,360集团董事长兼CEO周鸿祎当选首任专委会主任,他在成立大会上表示,智能音箱变身窃听器并不是科幻电影里的场景。

  周鸿祎介绍,360与浙大合作发现了一种“海豚音攻击”,该攻击人耳无法听见,但通过超声波信号可以劫持智能设备的语音控制系统,再利用麦克风的硬件漏洞,就可以悄悄开启语音助手,把智能音箱变成窃听器,窃取用户隐私。

  此外,“海豚音攻击”还可用于攻击多种拥有语音助手的智能设备,包括智能手机、智能手表、智能汽车等。伴随着越来越多的智能设备介入我们的生活,人工智能面临的安全问题也令产学研各界持审慎态度。在此次 “人工智能与安全专委会”成立大会上,现阶段人工智能本身的安全问题就成为关注焦点。

  周鸿祎指出,人工智能是个热词,也是未来的大势所趋。但当下的人工智能技术并不完善,存在四大冰点:

  首先,前端传感器可以被干扰。人工智能广泛依赖音视频采集、红外感应、激光雷达等各类传感器。但这些传感器自身并不安全,能够被干扰,造成人工智能识别和决策失误。“海豚音攻击”就是干扰语音传感器的方式之一。

  其次,人工智能的数据样本可以被污染。目前人工智能采用深度学习模型,黑客可以构建畸形输入或者污染训练数据集,进行“数据投毒”,导致人工智能出错。比如,通过给智能汽车输入“污染”过的训练样本,就可以把“禁止通行”的交通标志牌识别为“可以通行”,从而造成交通事故。

  第三,内部算法可以被欺骗。人工智能本质上是一种用大量数据训练出来的概率判断系统,其内部复杂的计算逻辑和决策过程还不透明,可以被欺骗或绕过。周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。

  最后,实现平台有漏洞。周鸿祎介绍,当下的人工智能系统都依赖开源的深度学习框架,存在大量漏洞,当前360研究人员已经发现了40多个深度学习框架的软件漏洞。

  人工智能无疑是下一轮技术革命的焦点,在技术高速发展的同时,如何保持这个技术更安全是重中之重。周鸿祎建议,解决人工智能时代的安全问题,能够防范的唯一方法就是利用基于大数据的人工智能。360去年基于安全大数据构建了360安全大脑,可以实现网络安全的自动化、智能化。

  “360安全大脑目前还是初级阶段,我们希望通过开放我们的数据、技术、能力和平台,与产学研各界通力合作,真正把360安全大脑的产业生态做起来,并在未来的国家安全、城市安全、社区安全,甚至老百姓的家庭安全中发挥重要作用。”周鸿祎最后说道。

【编辑:于晓】

>产经频道精选:

本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
[网上传播视听节目许可证(0106168)] [京ICP证040655号] [京公网安备:110102003042-1] [京ICP备05004340号-1] 总机:86-10-87826688

Copyright ©1999-2024 chinanews.com. All Rights Reserved