文章插图
打开一个黑盒子,黑盒子变成了白盒子,但是白盒子中又出现了更多的黑盒子,探索可解释AI是一条长远的道路。在刚刚过去的2021年,人工智能领域最热门的新兴话题之一,就是「可信AI」。2021年6月,蚂蚁集团在全球人工智能大会上首次公布「可信AI」技术架构体系;7月,京东探索研究院又在世界人工智能大会上发布中国首个《可信人工智能白皮书》,且两家企业都将隐私保护、鲁棒性/稳定性、可解释性、公平性作为「可信AI」的四大基本原则。从工业界到学术界,「可信AI」的身影频频出现。比如,此前 AI 科技评论也曾报道过哥伦比亚大学数据科学研究院主任周以真教授在《ACM通讯》上发表的「可信AI」一文,其中探讨了从「可信计算」到「可信人工智能」的历程与问题,也引发不少关注。在国内,人工智能应用落地的相关议题,已有风起云涌之势。越来越多的科技企业开始注重对人工智能的「约束」,从伦理层面、组织结构层面,如商汤设立伦理委员会。但总的来说,当前人工智能算法的缺陷,主要攻关难度还是在于技术层面,即常说的「鲁棒性/稳健性」与「可解释性」。不久前,1 月 11 日,腾讯也于线上举办的科技向善创新周「透明可解释 AI 论坛」上正式发布了《可解释 AI 发展报告 2022——打开算法黑箱的理念与实践》。这一报告由腾讯研究院、腾讯天衍实验室、腾讯优图、Tencent AI Lab 等机构联合完成,一经发布,再次引发人们对可解释AI的剧烈讨论。可解释人工智能 (XAI) 是一套流程和方法,可使人类用户能够理解和信任机器学习算法所产生的结果和输出。AI 技术的「不可信」逐渐成为AI大规模落地的一大阻碍。在将 AI 模型投入生产时,可解释 AI 对于组织建立信任和信心至关重要。AI可解释性也有助于组织采用负责任的方法进行 AI 开发。近几年,互联网科技大厂对可解释性AI的讨论热度居高不下。值得一提的是,对可解释 AI 的研究也逐渐蔓延到了学术界。随着社会各界对人工智能可信度的不断关注,安全可信的人工智能技术已成为研究领域的热点。可解释性是研究的焦点主要之一,其它焦点还包括人工智能系统稳定性、隐私保护、公平性等。随着AI越来越先进,人们越加关注算法究竟是如何得出结果的,计算过程变成了无法解释的「黑盒子」。这些黑盒子模型在数据的基础上直接创建而来,AI算法是如何得出特定结果的?创建算法的工程师或数据科学家对此也非常困惑。
文章插图
「黑盒子」这一概念最早由西方学者提出,是指从用户的观点来看一个器件或产品时,并不关心其内部构造和原理,而只关心它的功能及如何使用这些功能。其实,不仅是AI系统中经常出现「黑盒子」算法,对这种思路的运用由来已久。中国文化中没有「黑盒子」这个术语,但中华民族传统医学中医的理论是名副其实的「黑盒子」理论。