加入收藏 | 设为首页 | 会员中心 | 我要投稿 西安站长网 (https://www.029zz.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

当技术掌握在坏家伙手里,网络安全中的AI攻防战

发布时间:2019-03-07 13:33:10 所属栏目:建站 来源:张飞逸编译整理
导读:副标题#e# AI研究集团OpenAI上个月发表了一项不同寻常的声明: 它表示自己已经构建了一个基于AI的内容创作引擎,其功能非常复杂,而OpenAI也不会向开发者公布完整的模型。 究其原因,任何在网络安全领域工作的人都应该知道一二。Cofense Inc.的一项研究显示

所以AI前景光明,但在某些领域,它几乎没有什么价值,甚至可能带来新的漏洞。当问题领域是众所周知的,并且变量变化不大时,机器和深度学习效果最好。算法擅长于检测模式的变化,但不擅长识别新模式。Fidelis Cybersecurity Inc.的高级产品营销经理Tom Clare说:“你发现未知情况真的很困难。”该公司专门从事威胁检测和应对工作。

安全检测网站SafetyDetective.com的数据显示,自2013年以来,恶意软件的发生率已经上升了5倍。改变变量可能会让机器学习算法变得混乱,这也是迄今为止它们在打击恶意软件方面价值有限的原因之一。机器学习算法存在“固有的失败,因为恶意软件的训练集变化太快” Malwarebytes 公司CTO Doug Swanson说道,“未来恶意软件模型看起来会跟今天几乎完全不一样”。

AI模型依赖于大量高质量的源数据进行训练,这可能会限制它们对已知威胁模式以外的所有威胁模式做出快速反应的能力。“说到底,(模型)可能又大又慢,”Jumio的首席科学家Labhesh Patel说。

这样,结果的价值也只取决于用于培训的数据。这就是为什么MapR的Omernik建议组织在供应商声宣称他们有一种全面的AI安全方法时要保持怀疑。

他回忆了自己在两家不同银行工作的经历,一家是客户主要在当地,而另一家客户遍布世界各地。“人们会从非洲或俄罗斯的电脑上登录,这很正常,”他说,这类活动会发送一个入侵检测系统,,该系统是硬连接的,可以考虑脱轨位置。

必须解决的黑箱

如果机器学习在对抗网络威胁方面有用,它也不可能像通常那样是一个黑箱(black box)。人们需要对模型进行持续的关注,以确保训练数据是完整的、相关的,并且不受攻击者的影响。引入错误或误导性数据会导致结果退化或更糟。Arkose Labs的Westelius说:“如果人们对这项技术过于依赖,它最终会自我学习。”“但机器学习可以重新训练自己,让自己认为正常的行为不再是正常的。”

此外,计算机的工作原理也有一些细微的差别,这与人类的逻辑相悖。例如,研究人员已经演示了通过在普通人类语言甚至音乐中嵌入隐藏的命令来愚弄语音助手的方法,比如亚马逊的Alexa和苹果的Siri。自动驾驶汽车系统可能会认错道路标志,因为只是实验人员贴上了一些几乎不会引起注意的小贴纸。

其结果是:强化企业防御的工具也可以被用来以新颖的方式攻破它们。以XEvil为例,它是一种可以用来破译扭曲和模糊字符的验证码,准确率高达90%。其是一种基于深度学习的机器视觉软件的副产品,该软件是用来指导自动驾驶汽车的,并还可以用来击败密码身份验证系统中常见的第二道防线。

对一切开放?

像许多AI模型一样,XEvil是开源的,使得“好家伙”和“坏家伙”都可以在其基础上进行简单的构建。无论是好是坏,大多数流行的机器学习模型都已发布到开源软件中,这意味着无法知道谁在使用它们。

这一事实引发了IBM Lodewijkx的不祥警告。“知识和技能正在民主化,”他指出。编程技能历来都是基于数据库的,但是机器学习中常见的基于模型的方法正迅速成为主流。“我们从大学雇佣的孩子们已经改变了他们的编程技能,”他说。“这也会影响犯罪方面。”

机器学习擅长检测模式的变化,但这种技术也可以用于覆盖轨迹。DivvyCloud的Totman说:“目前,许多罪犯的签名都是基于他们一贯的犯罪行为。”“罪犯可以利用机器学习随机化他们的模式,混入其中以避免被发现。”

(编辑:西安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读