2017年,人工智能首次写入《政府工作报告》,自此,人工智能飞至“风口”,已远远超过前60年的速度高速发展。可当人们醉心于新鲜事物带来的全新体验,却忽视了其暗藏的安全问题。如果安全问题没有得到充分重视,人工智能很有可能会掉落到风险巨大的“火山口”。
人工智能恶意使用的安全威胁
2月底,来自OpenAI、人类未来研究所、牛津大学、剑桥大学等14家机构和高校的共26名学者在arXiv上发表一篇名为《人工智能的恶意使用:预测、预防和缓解》(The Malicious Use of Artificial Intelligence:Forecasting,Prevention,andMitigation)的研究成果报告(以下简称《报告》)。《报告》的重点内容是在未实施充分的防御时,人工智能恶意使用所存在的潜在安全威胁。
《报告》详细分析了人工智能在三个安全领域(数字安全、物理安全和政治安全)有可能发生的安全威胁,并举出代表性的例子证明其可能性。数字安全方面,将出现合成声波、自动黑客攻击和数据下毒等新型安全攻击;物理安全方面,不法分子可将无人机或其他物理系统变成攻击的武器;政治安全方面,人工智能可以检测数据做有针对性的宣传,造成侵犯隐私和左右舆论等安全威胁。
《报告》认为,人工智能不仅扩大现存安全威胁,还会引入新的安全威胁和改变现有威胁的典型特征。通过人工智能,完成对人类攻击者来说不可能完成的攻击,并非难事。此外,安全人员开发的人工智能系统也会给恶意攻击者带来新的可乘之机。而且《报告》也相信伴随着人工智能应用的快速发展,安全攻击将会更高效、更具有针对性、难于归因且难以防守,这将在很大程度上改变传统网络安全威胁的典型特征。
《报告》中至少有两处强调,人工智能可以达到攻击规模和攻击效率两者平衡,而这直接改变了传统网络安全威胁的特征,更高效、更精准、更匿名将成为安全威胁的新特征。以更高效为例,传统攻击中,攻击者往往需要在两者之间取舍,而人工智能系统超过人类能力的潜力将会增加预计攻击有效性的准确度,使得由人工智能自动化完成的网络攻击更高效,且这种高效的攻击现目前并未有实质性的预防措施;以更精准为例,在规模和效率均能达到最优效果之后,攻击者便有精力将其攻击限制在具有某些特性的目标上,识别和分析潜在目标进行更为精准的攻击;以更匿名为例,攻击者使用人工智能自动化攻击系统进行攻击,而非亲自执行。
“一点也不意外”的黑客操作
“随着人工智能应用的普及,安全威胁会不断增加,更多的应用会把应用的输入接口直接或间接暴露出来。同时封闭系统的攻击面也会随着时间和环境而转化。”近期,由360安全研究院发布的《AI安全风险白皮书》(以下简称《白皮书》)指出人工智能,特别是深度学习领域带来的安全威胁。《白皮书》认为,被大家熟知的AlphaGo人工智能应用是因为并不与外界有直接的交互,所以安全威胁相对较小,如果人工智能要想应用落地就必须考虑安全问题。
在《报告》发表之前,两位通讯作者Miles Brundage和Shahar Avin合写一篇较为简单的介绍性文章,文章标题表达了作者的担忧--《利用AI来犯罪只是时间问题》(It‘s only a matter of time before criminals turnAIs against us)(以下简称“文章”)。
文章认为人工智能研究人员在开发新应用程序时需要考虑安全因素,如果不这样做,黑客就会利用人工智能进行恶意活动。人工智能和所有新技术一样都具有两面性,会以各种方式使社会受益,但同样也会以各种方式被恶意使用。文章举出无人机、自动驾驶车等网络物理系统被黑客恶意使用的例子,自动驾驶车可能会带来车祸,便宜的商业无人机可能会被改造成面部识别导弹。
《报告》中给出了相应威胁的假设性案例,例如,某安全管理系统的管理员浏览网站时,被一则模型火车的广告吸引,并点开下载小册子。此时攻击已经开始,小册子一旦被打开,黑客就能窥视他的电脑,获得安全管理系统的用户名和密码。至于管理员看到的广告,则是黑客根据其个人兴趣,结合人工智能精心设计的“陷阱”。而这样的操作正是黑客使用基于“强化学习”和其他AI技术来控制一大批半自动机器人程序,通过廉价的个性宣传精确地目标人群。这样一个8人钓鱼团队就能达到8000人的水平。类似的技术操作和实现效果在作者看来,“一点也不意外”。
“一点也不意外”的黑客操作近日被指出很有可能已经在操纵美国大选。美国特别顾问Robert Muller曾公开指出,俄罗斯有一个80多人的全职专业团队破坏2016年美国总统选举。通过使用虚假的美国公民身份,利用社交媒体平台和其他网络媒体来推进他们的计划。“一点也不意外”的黑客操作同样发生在我国。2017年,浙江警方破获了一起利用人工智能犯罪,侵犯公民个人信息案。专业黑客用深度学习技术训练机器,让机器能够自主操作,批量识别验证码。“很短时间就能识别上千上万个验证码。”当时的办案民警介绍。
全社会共同讨论才是问题正解
《报告》中,作者不无担忧地表示:如果没有制定出足够的防御措施,我们可能很快就会看到假设性的攻击成为现实。
中国社科院文化法制研究中心研究员刘明接受《科技日报》采访时说,技术带来的问题,有时也可以用技术发展来解决。当攻击方用上了导弹大炮,防御方就不能只用“小米加步枪”。“如果意识到自己所在行业存在人工智能带来的威胁,自身加强防范就很重要。”同时他也表示,如果用技术防御技术,“这可能是一场无止境的技术攻防战。”
此外,道德和法律也是如何解决人工智能衍生问题的两大关键词。哈佛法学院互联网法教授Jonathan Zittrain说,“我担心,在技术的帮助下,我们的系统将变得更加复杂和紧密连合,人类的可操控性会下降。并且这里(编者注:利益相关者)没有任何一个方面需要考虑道德伦理问题。”除了没有考虑道德问题之外,关于“道德”或“公平”的概念也是十分含糊不清且难以界定。对此,英国科普作家PhilipBall表示,当新的技术出现之后,肯定会随之而来许多新的道德问题,这是一个需要全人类共同面对的挑战,还需要全社会来参与讨论。
在《报告》中也给出了缓解威胁的四点建议:
决策者应与技术研究人员密切合作,调查、预防和减轻人工智能潜在的恶意用途;
人工智能的研究人员有责任采取一切可能的措施,帮助促进技术的有益使用,防止有害用途;
研究现有较为成熟的解决双重用途问题的实践方法,并研究是否适用与人工智能领域;
寻求更广泛的交流。不仅包括,用户、决策者、网络安全和人工智能研究人员以及相关企业,还应该包括伦理学家和其他利益相关者。
The Verge就此发表评论性文章表示,作者旨在希望通过更多的对话和更多的行动解决行业问题。
(本文综合整理自arxiv、雷锋网、凤凰科技、科技日报、The Verge等)
本文刊载于《中国教育网络》2018年5月刊
特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。