算法|腾讯研究院发布《可解释AI发展报告2022》 探讨AI伦理走向

人工智能不断朝着更加先进、复杂、自主的方向发展,给经济和社会带来了新的变革性机遇,但AI系统的黑箱特征也带来了一系列问题,成为进一步发展进步的障碍。1月11日,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯AI Lab团队联合发布主题研究报告《可解释AI发展报告2022》,并邀请学界和产业界大咖,共同探索可解释AI 的未来。
腾讯集团副总裁、腾讯研究院总顾问杨健主持了论坛,微众银行首席人工智能官杨强、南方科技大学计算机科学与工程系系主任姚新、厦门大学人文学院院长朱菁、香港中文大学(深圳)副教授吴保元、京东探索研究院算法科学家何凤翔、腾讯天衍实验室负责人郑冶枫、腾讯优图实验室人脸技术负责人丁守鸿、腾讯研究院秘书长张钦坤参与了研讨。
【 算法|腾讯研究院发布《可解释AI发展报告2022》 探讨AI伦理走向】以深度学习为代表的机器学习加速渗透到各行各业,产生了非常丰富的应用,就技术层面而言,从数据输入,经过一系列的运算,输出一个特定的结果,但算法的计算过程如何,往往不为人类所知。因此,如何看待AI算法系统的透明性与可解释性,成为AI伦理核心议题之一。
腾讯研究院的秘书长张钦坤在发布报告时表示,人工智能面临全局性可解释和局部可解释两个问题,一般社会公众很难理解算法模型本身,这是全局性可解释的问题,另外如何解释它的输出结果,也就是局部可解释的问题,这两个问题不仅影响到用户对AI应用的信任,也可能会带来算法歧视、算法安全和算法责任等方面的相关问题。
事实上,无论是自律性的国际公约,还是具体法律、规章、行政法规,都已经对AI的透明性和可解释性提出了比较明确的要求和期待。在这样的背景下,国内外不少科技公司推出了可解释相关的举措。
谷歌公司的“模型说明书”模式是一种比较容易接受的增加算法模型本身透明度和可理解的方式,让使用者一目了然看懂这个算法模型的关键信息,增进用户和使用者对模型的信任。
国内的互联网企业也在采取类似的做法,比如美团公布外卖配送规则、微博公布热搜的算法规则,但现在国内企业整体来看实践比较零碎,没有达到系统化的程度。
腾讯优图实验室人脸识别技术负责人丁守鸿介绍,从2014年深度学习技术应用到人脸这个领域以来,从原来96.3%的通过率提升到了99.5%,促成了人脸识别技术的可使用化。特别是疫情以来,用到人脸识别做身份验证的场景越来越多,腾讯健康码,一年累计亮码超过240亿人次。
这个过程中,腾讯优图实验室从最早的银行远程开户到现在的刷脸支付,积累了一套可信人脸识别的技术路径,利用比较简单的样本,让模型先学习到一定的识别能力,然后再对困难的样本做调优,在支付场景,通过红外和深度、RGB和深度来验证图像,既提升了识别的准确率,也提升了模型的安全性。
厦门大学人文学院院长朱菁认为,对于用户,需要了解背后的道理,AI的可解释性支撑了可信任度;对于政策和监管部门,可问责机制是关注重点;而技术工程人员了解算法背后的奥秘,便于在更大范围内使用算法。
关于AI可解释领域的技术现状,腾讯天衍实验室负责人郑冶枫介绍,可解释AI是一个新兴的研究领域,还缺乏统一的理论框架和技术路线,很难找到一个准确率又高、可解释性又好的算法,更多时候是一个选择,比如深度学习对于医生来说很难理解这个算法的底层原理,算法本身缺乏全局可解释性,但是准确率非常高,天衍实验室正在探索,希望把这两个模型结合起来,利用好准确率的基础上,提高系统的可解释性。