人工智能向“上”生长,可信AI渐行渐近

机器之心原创
机器之心编辑部
一位刚刚上路的新手驾驶员 , 如何成长为「老司机」?显然 , Ta必须经过足够时间和里程的驾驶练习 , 才能够熟练、从容地应对各种可能出现的路况和紧急事件 。 所以尽管自动驾驶系统也会在投入使用之前历经大量的真实道路测试 , 但就算是科学文明相当普及的今天 , 仍有很多人依旧做不到将开车这件事「放心地交给AI」 , 毕竟摆在人们眼前的却是道不尽的争议和说不明的驾驶事故 , 而事故的发生可能是技术 , 算法 , 道路 , 数据 , 传输 , 天气 , 驾驶员等多重主客观因素影响造成的 , 权责划分十分困难 。
具体从算法层面看 , 由于驾驶场景天然对安全性有更高要求 , 这就需要自动驾驶算法具备可解释性;但目前自动驾驶系统的决策规划模块大多基于训练数据 , 由于现有数据集普遍缺少中间数据或状态数据 , 导致算法在极端情况下难以及时做出完全正确的决策 。 “算法还没有达到完全「可信」的程度 , 这在一定程度上为事故发生后的责任认定带来了难题 。 ”中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰分析称 。
人工智能向“上”生长,可信AI渐行渐近
文章图片
中国信息通信研究院华东分院人工智能与大数据事业部主任陈俊琰
由于无法通过算法对已发生事故中的权责边界进行解释 , 人类只能尝试从自动驾驶行为中得到合理化的解释 , 但深度学习模型的黑箱特性让这一过程又变得困难重重 。 京东探索研究院算法科学家何凤翔认为 , 目前阶段的很多AI算法依旧处于一种黑盒模型的基础上 , 如果不太了解算法背后的机制 , 就不太清楚风险从哪里来 , 也无法识别风险机制和风险尺度 , 更谈不上很好地管理风险 。 在这样的情况下 , AI算法还不能应用在关键领域中 , 比如人们抱有很高期待的医疗诊断、自动驾驶等以及更多「人命关天」的行业 。 “下一步 , 我们需要深刻地理解算法的行为 , 然后才能够在这一基础上设计出可以被信赖的算法 。 ”
人工智能向“上”生长,可信AI渐行渐近
文章图片
京东探索研究院算法科学家何凤翔
此外令人忧心的是 , 无论是地址、路线这些基础的位置信息 , 还是音乐、聊天内容等个性化信息 , 一旦其中的重要数据被窃取、篡改或滥用 , 会产生严重的法律责任事件 , 损害数据主体的财产安全甚至生命安全 。 怎样对如此庞大的数据进行隐私保护、防止数据滥用?也是自动驾驶落地过程中必须要解决的问题 。
可信AI , 数字时代的安全卫士
今天 , 人工智能技术已经成为如水电一般的资源 , 融入到人们日常生活的方方面面 , 小到购物推荐、医疗教育 , 大到生物信息识别以及工业智能制造 , 机遇良多 。 然而 , 当我们沉浸在AI技术带来的生活便捷高效、行业迅猛发展的同时 , 因其“黑盒模式”引发的技术不可控、数据安全、隐私泄露等问题却时有发生 。
AI值得信任吗?如何建立起人与系统的互信?衡量标尺又是什么?如何更好将AI技术为人所用……相关问题逐渐成为学界、产业界、政府界 , 甚至是普罗大众近年来十分关心的话题 。
可信AI的概念最早出现在2017年11月的香山科学会议上 , 由中国科学家何积丰院士首次在国内提出 , 近年来伴随人工智能的飞速发展 , 人们对可信AI的认知越来越明晰甚至深入 。
2019年10月 , 京东集团首次在乌镇世界互联网大会上提出京东践行「可信赖AI」的六大维度 。 2021年7月 , 中国信通院与京东探索研究院联合撰写的国内首本《可信人工智能白皮书》正式发布 , 首次系统提出了可信人工智能全景框架 , 全面阐述可信人工智能的特征要素 。 “我们和白皮书的思路一脉相承 , 从四个方面进行可信AI方面的研究 , 即稳定性、可解释性、隐私保护、公平性 。 ”京东探索研究院算法科学家何凤翔表示 。