本文转自:新华日报7月21日|赖希曼大学教授Yoni Birman 亮相BCS2022:用AI筑起网络安全防护墙

本文转自:新华日报
7月21日 , 2022北京网络安全大会技术日系列活动开启 。 作为本次大会的第二个主题日活动 , 期间将举办技术峰会、长沙数字城市网络安全运营峰会、取证与涉网犯罪分论坛、BCSTALK虎符话安全等系列活动 。 在BCS2022技术峰会上 , 以色列赖希曼大学教授YoniBirman发表了《利用AI防范网络空间安全》主题演讲 , 分享了对于网络AI共存的看法和观点:利用AI防范网络空间安全需要加大科普和科研投入 。
本文转自:新华日报7月21日|赖希曼大学教授Yoni Birman 亮相BCS2022:用AI筑起网络安全防护墙
文章图片
本文转自:新华日报7月21日|赖希曼大学教授Yoni Birman 亮相BCS2022:用AI筑起网络安全防护墙】YoniBirman分享了网络AI共存周期包含三种不同的关系:第一种关系是利用AI加强网络防护;第二种是解决如何保护AI和机器学习管道 , 防止敌对攻击;第三种是利用AI满足防护需求 , 并防止AI攻击 。
YoniBirman指出 , 增强网络防御AI技术已经十分普遍 , 且已应用于身份和访问管理、网络安全、数据保护等领域 , 并从三重关系入手进行了分析 。
其中 , 第一种关系是利用AI加强网络防护 。 首先利用付费的威胁情报服务收集由恶性样本和良性样本构成的数据语料库 , 并进行处理 。 同时训练模型并布署模型的位置 , 针对模型定义应用程序接口 , 最终建立模型维护流程 。
第二种关系是保护AI驱动型系统 。 更常用的说法是保护机器学习关系 , 防止敌对的机器学习 。 敌对机器学习这一概念相对较为简单:敌方的目标是让AI模型的行为偏离于模型最初设计的行为 。 在YoniBirman所展示的实例中 , 机器学习管线遭受敌对攻击后 , 模型会错误地将狗的图像归类为大象 。 发起敌对攻击的方法就是找到并利用机器学习管线的弱点;第三种是网络AI的概念 。 我们利用AI进行网络防御 , 网络AI可划分为三种不同的领域 。 第一个领域是利用AI增强传统的攻击;第二个是利用敌对机器学习来攻击AI驱动型网络防御系统;最后一个是合成内容生成方面的网络防御 。
那么如何保护自己 , 免受网络AI攻击呢?YoniBirman表示防护方法可划分为两种类型 , 分别为通用方法和专用方法 。 通用方法大多专注于整体确保AI的可靠且安全的用途 。 其中涵盖道德和教育、研究和合作、以及政策和规则的制定和实施 。 最后 , 需要制定各种框架 , 确保AI安全且可信;专用方法用以检测和防止具体的侵犯性网络AI攻击向量 。
最后 , 针对网络AI防御问题 , YoniBirman提出了两点建议:第一 , 对所有人进行科普 , 包括数据科学家、机器学习工程师、开发者以及你的员工和家人 , 让他们了解网络AI的各种危害以及常用的预防方法;第二 , 我们必须加大投资进行研究 , 不论学术机构还是企业机构都是如此 。 首先要设计出各种安全的AI开发框架 , 其次要开发并实施更具有针对性的方法 , 以追赶上侵犯性网络AI的进化步伐 。
目前 , 北京网络安全大会已经成功举办三届 , 是立足北京、辐射全球的世界级交流合作的平台 。 作为网络安全领域最具有影响力的活动之一 , 今年的大会从国家安全、社会安全、产业发展、前沿技术、人才培养等多维度出发 , 加强沟通 , 扩大共识 , 深化合作 , 积极维护数字世界的健康发展 , 着力构建和平、安全、开放、合作的网络空间命运共同体 。