算法|腾讯发布国内首份可解释AI报告!层层分析「套娃式」AI算法( 三 )

除了杨强,时任南方科技大学计算机科学与工程系系主任、历史上首位获得神经网络最高奖「IEEE Frank Rosenblatt Award」的华人学者姚新教授也对该报告进行了附议。他谈道:
「对 AI 系统落地来说,透明性和可解释性是必不可少的,研究前景非常好;但 AI 的透明性、可解释性和性能之间存在固有的矛盾,一个可能的方向是根据不同的场景、可解释的目的,寻找不同的折中方案,以此促进 AI 技术的落地。」
什么是「可信AI」?在去年的一次对话中,姚新教授也曾向 AI 科技评论分享过自己的看法。其中,他提出,检验人工智能是否可信、可落地的一个最直接的方法,就是「研究人员敢不敢用」。比如 AI 制药,如果负责项目的科研人员敢用,那用户对 AI 的信任度也会提高。但事实是如今的许多 AI 产品由于未充分完善,科研人员也是不敢用的。
由此可见,尽管各大厂开始重视 AI 的治理与落地安全性,但要从技术层面解决当前人工智能模型可解释性差、不够稳定的缺点,还是需要做好打长久战役的准备。
正如这份报告所指出:
即使AI系统并非完全可解释,我们也可以利用AI系统来提高决策的透明度。对人类决策的解释,也许不能准确反映出影响人类决策的因素或无意识偏见。实际上,即使 AI 系统所做出的决策并不能被完全解释,但相比理解人类如何做出类似决策,我们也可以更好地理解AI系统在整体上是如何做出决策的。而且,AI的最大价值在于可以在复杂情形中发现、识别超出人类理解的模式( pattern ),因此根据定义,这样的AI系统不会以人类可以理解的方式具有完全的可解释性。就像取得驾照,相信汽车可以安全驾驶,并不需要人人都成为专业的汽车工程师一样,当使用AI系统时,解释并不总是必须的。长远来看,政府、社会、企业、行业、科研机构、用户等主体需要共同探索科学合理的可解释AI落地方案及相关的保障与防护机制,推动科技问雪。
只有各界共同正确审视人工智能研究出现的问题,并做出合理的解决方案,才能推动AI技术持久稳定的发展,可解释AI未来发展如何,让我们拭目以待!
参考链接:
1.https://mp.weixin.qq.com/s/6PpV1SD0L-cySfh4xIvx8Q
2.https://mp.weixin.qq.com/s/lUCBn5serDFyvIsllCm-vw
相关阅读
可解释AI先驱、深理工潘毅教授:AI制药,要多做「用结构找小分子」的逆向工程 | GAIR 2021
2021-12-26
算法|腾讯发布国内首份可解释AI报告!层层分析「套娃式」AI算法
文章插图
ACM与IEEE双Fellow、华人女计算机科学家周以真:可信 AI,未来可期
2021-10-11
算法|腾讯发布国内首份可解释AI报告!层层分析「套娃式」AI算法
文章插图
联邦学习首个国际标准正式发布!
2021-04-02
算法|腾讯发布国内首份可解释AI报告!层层分析「套娃式」AI算法
文章插图
雷峰网雷峰网
【 算法|腾讯发布国内首份可解释AI报告!层层分析「套娃式」AI算法】