人工智能向“上”生长,可信AI渐行渐近( 二 )


纵观全球 , 可信AI技术的发展都有相似路径可循:从基础理论出发 , 从理论问题、理论结果深入 , 设计出可以被信赖的AI算法 , 最后尝试将这些AI算法应用到产品中去完成技术落地 , 目前可信AI作为京东探索研究院锁定的三大研究方向之一也是如此 。 “工作之中我们发现这四个方面彼此之间是有一些关联的 , 也是希望在长期的探索中能够提出一些统一的理论去一致描述可信AI , 而不是简单机械分开去研究它的四个方面 。 ”
相比于国内 , 国外企业在可信AI技术的具体布局上起步要早一些 。 以隐私保护为例 , 2006年 , Dwork等人提出了差分隐私模型 , 一经出现便迅速取代了之前的隐私模型 , 成为隐私研究的核心 。 目前已有公司将差分隐私作为标准大规模部署 , 对于用户数据采取不收集的处理方式 , 对于一些不得不收集的内容则采用差分隐私算法将收集过后的数据进行匿名、扰乱 , 从而让数据无法定位到具体的用户 。
毋庸置疑 , 可信AI涉及的方向是繁多的 , 每个方向都会延伸出很多具体任务 , 实现可信AI绝非「一日之功」 。 在京东探索研究院算法科学家何凤翔看来 , 能否通过研究AI背后的运行机制建立起理论基础 , 把不同方向的理论统一起来 , 这是一个比较困难的问题 , 当然这也是很核心的问题 。 这个问题如果解决了的话 , 后续的算法研究可能就会得到很大帮助 。
「两条腿走路」 , 推动可信AI标准化
可信AI的标准化工作要走在落地实践的前头 , 这是业界的另一大共识 。 实现上述目标的关键在于 , 要学会「两条腿走路」 , 除了政策指导 , 也需要行业自律 。
从国际上来看 , 一方面是用指南及法案的形式对AI的可信度进行规范 , 比如欧盟委员会人工智能高级专家组(AIHLEG)发布的《可信人工智能伦理指南草案》和《可信赖人工智能道德准则》 。 今年 , 《欧盟人工智能法案》也已正式发布 。
另一方面是在标准研制上面进行发力 。 例如美国国家标准技术研究所(NIST)在今年6月发布了《关于识别和管理人工智能歧视的标准提案》 , 随后在7月又提出《人工智能风险管理框架》 。
相比之下 , 国内的标准化制定遵循了同样的思路 , 包括信通院在内的标准化机构 , 以及像京东这样的企业界代表 , 都在努力推进行业倡议、标准研制 。
2020年7月 , 五部委发布《国家新一代人工智能标准体系建设指南》;在今年的世界人工智能大会可信AI论坛上 , 《促进可信人工智能发展倡议》正式发布;同时 , 中国人工智能产业发展联盟人工智能治理与可信委员会也宣告成立 。
“我们也希望可以从自身的研究成果出发 , 协助标准的制定;有了标准之后 , 一些研究成果也能更好地被量化 。 比如提供一些量化指标去度量算法的可信赖程度 , 去设定一些阈值作为技术标准 。 ”在何凤翔看来 , 这相当于“先做出一把制定好的尺子 , 再去做测量 。 ”
可信AI未来之路 , 将指向何方?
在可信AI技术实践过程中 , 企业必然扮演中坚力量的角色 , 能够让可信AI更好落地并走得更远 。 尤其在数据筛选、算法优化、模型设计这些环节中 , 要找到隐私泄露、算法偏见、内容审核等问题的最优解 , 都要依靠企业的不断摸索 。
今年8月 , 华控清交承建的光大银行企业级多方安全计算平台上线就是一个企业助力可信AI落地的直观案例 。 这是金融行业首个正式投产的企业级数据流通基础设施平台 , 标志着多方安全计算真正打通了「产学研用」最后一环 , 向大规模应用迈上关键台阶 。