算法|腾讯研究院发布《可解释AI发展报告2022》 探讨AI伦理走向( 二 )


微众银行首席人工智能官杨强认为,未来的世界是多对多的协作,在不同领域,针对不同对象,解释目标不一样,比如金融领域要对监管可解释,而医疗领域一定要赢得医生和病人的信任,所以在不同的领域,怎么样做好可解释,是业界考虑的重点。
透明性、可解释性和性能之间是有一个固有的矛盾,南方科技大学计算机科学与工程系系主任姚新认为,如果能从技术上根据不同场景、可解释目的,找一个折中方案,这样有可能会得到一些比较具体的技术,或者可以促进这些技术落地。
AI系统很多算法背后运作机制的未知,带来了风险的未知以及对它的不信任。京东探索研究院算法科学家何凤翔讨论时认为,可以从理论和实验两个路径中去寻找算法背后运作的机制,当理论研究遇到困难的时候,很多实验学科可以作为对于机器学习研究的启发,比如说新药上市前要做双盲实验,就能够提升人们对新药的信任程度,这种方式可以引入到AI落地的信任度解决方案中。
那么,在技术上不可行的时候,我们会有一些什么样的替代性的机制来确保它实现可信和负责任?
香港中文大学(深圳)副教授、腾讯AI Lab顾问吴保元认为,以研究犯罪率或者疾病的传播率、发病率等为例,在不同地方、不同种族,很可能会得出犯罪率高的结果,这个问题在于数据背后采集的时候样本有可能不完整,比如有可能是政府投入不足,或者其他因素。这也启发我们可解释性本身的可信性、准确性、公平性,是否忽略了某些特征,或者夸大了某些特征,如果把样本变化一点,可解释性可能会截然相反。AI研究者不仅要关注准确度,要把可信当做一个前提条件,要关注多种特性之间的关联。
厦门大学人文学院院长朱菁认为,人工智能的可解释性问题是多元性的,要允许有多种不同层次不同方式的解释起作用,当可解释性需要做出权衡取舍的时候,可以从多个层面来进行替代,或者说是补偿性、补充性的策略,比如,安全性和鲁棒性很好,对专家层面的解释性很好,但是对公众解释性不清晰的时候,有公信力的部门,可以向社会做一些说明和认定。
可见,如何找到一个平衡的可解释AI的路径,确保科技向善,需要充分考虑实现目标、公平、安全、隐私之间的平衡,《可解释AI发展报告2022》建议,可以从行业标准建立适应不同行业和场景的可解释标准,避免不区分应用场景和类型,提出统一的可解释要求的做法;探索可解释的替代性机制,包括第三方的标记反馈,用户的申诉,常规的检测、审计等方式,通过多种方式一起确保可信AI的实现;从人的角度来看,开发者和使用者都是AI生态的核心参与者,需要提升他们的算法伦理方面的素养。(高飞)