危险|《网空闲话》:人工智能的危险——任何人都可能成为埃隆·马斯克

【编者按】网络空间风乍起,于无声处听惊雷。网络安全既是国家安全问题,也是重大民生问题,秦安战略头条号邀请专业人士,专门推出《网空闲话》专题,深度剖析网络空间蕴含的新质生产力、文化力、国防力,把新领域的热点、焦点、难点问题,与大家的生活、工作、学习联系起来,有助于做好网络安全知识普及和网络强国意识提升,让大家在网络空间新时代有更多获得感、幸福感、安全感。本期由我的老同学执笔,更多内容,可以关注他的“网空闲话”公众号。

总部位于以色列特拉维夫的人工智能(AI)公司Adversa.AI的使命是建立对人工智能的信任,并保护人工智能免受网络威胁、隐私问题和安全事件的影响。该公司开发出了攻击类的产品:针对人脸识别系统的攻击,可以欺骗算法错误解读图像。
危险|《网空闲话》:人工智能的危险——任何人都可能成为埃隆·马斯克
文章插图
Adversa.AI开发了一种欺骗或愚弄了PimEyes(被《华盛顿邮报》描述为地球上最有能力的人脸搜索工具之一)的黑盒攻击,该公司的首席执行官兼联合创始人亚历克斯·波利亚科夫(Alex Polyakov)(这个人也可以是任何人)竟然是埃隆·马斯克(也可以是其他人)。反方称这种攻击为“对抗性章鱼”,因为像章鱼一样,它具有强适应性、隐形特性和精确性。
Adversa首席技术官和联合创始人Eugene Neelou向SecurityWeek解释了原因。“提高人们对人工智能算法安全的普遍认识很重要——无论是面部识别,就像这次的案例,还是其他人工智能驱动的应用::从互联网平台、社交网络到自动驾驶汽车、语音辅助等等。”所有这些都基于深度学习,而深度学习在安全方面存在根本性问题。”
当人工智能和机器学习首次被引入网络安全领域时,它们常常被视为——有时也被推销——终结黑客攻击的灵丹妙药。但这永远不会是真的。历史表明,每当一种新技术被引入计算领域,很快就会出现针对或使用同一技术的攻击。
Neelou继续说道::“(对抗式章鱼)方法是在AI红队的一个项目中开发的,该项目涉及创建多种方法来绕过基于AI的面部识别解决方案。”“我们决定检查一下我们的攻击在多大程度上适用于大规模的互联网应用程序,而且这种攻击在PimEyes(以及其他平台)上表现得出奇地好。”
危险|《网空闲话》:人工智能的危险——任何人都可能成为埃隆·马斯克
文章插图
过去几年里,人们对人工智能安全威胁的认识迅速增长。2019年11月,微软发表了一篇题为《机器学习中的故障模式》(Failure Modes In Machine Learning)的论文,其中对人工智能系统中有意和无意的故障进行了令人惊讶的详细分类。
Adversa.AI公司于2021年4月21日发表了一份题为《安全可信的人工智能之路》的报告。报告指出:“最近人工智能的指数级增长促使政府、学术界和产业界在过去两年中发表的研究比过去20年多。”然而,尽管人们越来越意识到人工智能可能被滥用,但公众对它可能带来的后果知之甚少——除了色情行业大量使用的深度造假。
“对抗章鱼”就是为了改变这一点而开发。Neelou解释道:“我们的目标是强调在现实场景中保护关键任务AI系统的问题。“这就是为什么我们开发了适用于真实环境的高级攻击方法,面部识别是我们的研究目标之一。”
危险|《网空闲话》:人工智能的危险——任何人都可能成为埃隆·马斯克
文章插图
选择的攻击方法是向图像中注入噪声。“通过注入噪音来欺骗人工智能系统并不是什么新鲜事。这种类型的攻击被称为躲避,是利用人工智能系统的最常见方式。”学术界记录了数千起躲避攻击事件。然而,目前的分类方法大多集中在通用图像分类上,存在各种局限性。《对抗性章鱼》有许多不同之处,但最重要的是它不需要任何关于AI算法的知识。”