智能音箱是以音箱为载体,利用计算机网络、互联网、音视频等技术,具备语音识别、语音交互、自然语言理解、语音合成等功能,能够为用户提供信息、生活等服务的设备。当前,智能音箱安全问题频发:2017年5月Alexa被曝出窃听用户聊天对话,并把录音发送给通讯录里的陌生人。2018年DefCon安全会议上,安全专家演示了对亚马逊智能音箱Echo的攻击,并实现对用户进行监听及控制音箱播放的内容等等。
一、智能音箱安全风险浅析
通过对国内主要智能音箱厂商安全状况进行梳理发现,智能音箱面临的安全风险可分为网络安全风险、数据安全风险、算法安全风险、信息安全风险、社会安全风险和国家安全风险六方面。
(一) 网络安全风险
“云+端”侧存在安全漏洞风险,可引发系统安全问题。目前市面上的智能音箱多采用云平台+两端(移动终端和智能设备端)的框架进行传输通信。但由于智能音箱的服务由云平台、移动终端与智能设备端缺乏严格的安全管理及认证,可能存在漏洞或后门等风险,一旦被攻破利用,可危及智能音箱产品或应用的可用性,甚至有可能成为攻击者远程控制智能音箱发动DDoS 1攻击的“肉鸡”。据腾讯安全实验室发布的报告显示,不法黑客们通常通过设备弱口令、远程命令执行漏洞等对智能音箱设备发起攻击,并利用蠕虫感染和自主批量攻击的方式来达到控制大量目标设备的目的,实现构建起庞大的僵尸网络。
(二) 数据安全风险
厂商通过技术手段收集用户信息,加大了个人隐私泄露风险。智能音箱产品需要通过不停监听唤醒词来工作,当默认设定的唤醒词被触发时,音箱产品便会自动记录用户的声音,并将收集到的声音传回分析,继而完成指令执行。而智能音箱的智能化程度依赖于海量数据,包括大量用户个人信息,以便提供个性化、定制化服务。在此背景及利益驱动下,厂商通过技术手段收集用户隐私成为普遍现象。例如亚马逊公司曾被爆出,用户家中的智能音箱Echo在未经用户授权的情况下,私自将家人间的聊天记录发送给联系人列表中的人。
黑客攻击来自多方面,一旦被攻破将导致用户数据泄露。因云侧、端侧存储着用户个人信息等隐私内容,因此也成为黑客攻击的热点。尤其是随着Android及iOS应用逆向技术的成熟、云平台攻击方式的多样性等原因,攻破其中任何一点便可成功获取到用户的详细信息、偏好等敏感信息,并用于电信诈骗,电话骚扰等违法活动。例如,攻击者在成功实施入侵后,可轻易获取包括受害者的家庭住址、手机号等用户敏感信息,即可冒用用户信息用于违法活动。
(三) 算法安全风险
对抗样本攻击可诱使语音识别出现误判,引发安全风险问题。随着智能语音技术的应用广泛,智能音箱跟其它所有软件一样,都有可能被利用来做非法的事情。例如,伯克利人工智能研究人员Nicholas Carlini和David Wagner发明了一种针对语音识别AI的新型攻击方法。只需增加一些细微的噪音,就可以欺骗语音识别系统产生任何攻击者想要的输出,从而实现身份盗用,欺骗认证系统等非法行为。
(四) 信息安全风险
智能音箱加速不良信息的传播途径,增加了内容监管难度。随着网络内容数量的不断增加,智能音箱的内容源可能会成为不法之徒宣扬色情、恐怖主义传播等不良信息的新手段,使得对有害内容的封堵变得更加困难。除了智能音箱厂商不具备识别或处理涉黄、涉爆、涉政等违法违规的能力外,网络传播平台自我把关意识不足,都成为增加内容监管难度的主要原因。例如,近期在荔枝、蜻蜓、喜马拉雅等音频平台上,被爆出播放的部分音频内容包括性暗示或赤裸的性挑逗,听众不乏未成年人,不少内容播放量在几万到几十万不等,已经严重危害到青少年身心健康。
(五) 社会安全风险
智能音箱过度拟人化的设计,带来了伦理道德的新风险。伴随着带屏智能音箱的问世,智能音箱结合视觉、听觉形成“拟人化”的存在,赋予了智能音箱更多拟人化的特征。如果将儿童投入该环境中,儿童会把机器人视为有生命的个体,会认为其有思想、会疼痛,是自己的朋友。但是当儿童与智能产品长时间共处就会形成某种信念,可能形成对智能化产品的不安全依恋关系,进而遭受一种病态的依恋错乱。例如,本该由父母及其他人员陪护的职责转换到了智能设备上,孩子与社会的交流机会减少,儿童由与人交互变成了与“拟人”的机器交互,从而产生伦理道德的风险。
(六) 国家安全风险
智能音箱变成信息窃取的工具,间接威胁国家安全。智能音箱可以获取包括声纹在内的各种生物个性特征,一旦国家政策制定者以及其同事生活或工作在智能音箱的环境中,智能音箱能通过获取用户的信息进行人物画像,甚至在决策者做出决策之前就已经预测了决策的结论,间接对国家安全造成严重威胁。例如,2018年7月的英国国会会议上加文•威廉姆森发表演讲时,被他的手机Siri打断,而这次会议是英国政府高层会议,他正在会议上发表关于叙利亚问题,Siri在未经授权的情况下“偷听”并发表了见解。
二、促进我国智能音箱安全发展建议
1) 及时出台监管政策,保障用户数据与隐私
在信息安全方面,应加快智能设备内容源监管政策的制定与出台,从法律、政策层面进一步的细化责任主体,同时对智能音箱厂商窃取数据等可能潜在的安全风险进行审查,保障智能音箱的安全可控。智能音箱服务提供商应进行自我监督,增加对不良内容信息源的治理手段,提高识别、治理的技术能力。同时,厂商也应鼓励更多用户共同参与,加强安全防范意识。如加强对网络安全法的宣传力度,让用户了解网络有害信息治理工作,积极参与其中,成为治理中的重要力量。
在数据安全层面,应该做到以下三点:首先,企业对用户关心的数据保护要做到公开透明,在特定情况下收集用户数据,要经过用户允许,否则不得擅自使用、转让用户数据等行为的发生。第二,可将用户个人信息按照内容进行分类,再依据各类信息的价值和安全风险,给予不同程度的保护,并对用户进行公开。最后,应加强用户数据的安全防护手段,完善用户数据的安全机制,定期开展云侧、端侧的渗透测试,降低数据安全风险。
2) 完善技术规范与法律约束,降低伦理道德风险
在社会安全层面,可由政府有关部门牵头,成立由技术专家、社会科学研究人员、政府管理人员为核心的人工智能设备管理委员会,对涉及人工智能设备的研究和开发项目进行审核评估,严格控制从技术转化为产品的环节。可要求开发者把人类的法律规范和道德要求用代码的形式写入机器,全部数字语言化,使其遵守人类的行为准则。智能音箱厂商也可以将用户的社会性、心理状况等道德价值置入智能设备设计之中,打破智能设备本身的伦理壁垒。从程序的设计开始规避伦理失范、减少智能设备的过度拟人化等方式,最大程度降低智能设备带来的伦理道德风险。
3) 提高应急保障水平,增强语音算法的健壮性
在网络安全层面,可以分别从以下两个方面增强安全防护能力。一是在云端或移动终端加入安全开发与设计,并引入安全测试,定期开展渗透测试和风险评估;二是建立对云端、移动终端实施全方位的安全监控与运维,形成完备的安全防护措施,确保云端、移动端的安全防护及感知能力。
在算法安全方面,需增强对不合理数据输入的反应及处理能力,并增强语音识别算法模型的健壮性,将算法模型潜在风险缩小到最低程度,实现模型可靠,并建立起针对语音算法模型可靠、准确的应急响应预案。
注释:1 分布式拒绝服务,Distributed Denial of Service
作者简介:
龚文全:中国信息通信研究院云计算与大数据所,工程师。研究方向包括网络安全、信息内容安全等方面的技术研究和标准制定。
邮箱:gongwenquan@caict.ac.cn
声明:本文来自中国信息通信研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。