让 AI “读懂”人类价值观!朱松纯团队工作登上 Science 头条

让 AI “读懂”人类价值观!朱松纯团队工作登上 Science 头条
文章图片
今日(7月14日) , 国际顶级学术期刊发表了朱松纯团队(UCLA袁路遥、高晓丰、北京通用人工智能研究院郑子隆、北京大学人工智能研究院朱毅鑫等作者)的最新研究成果——实时双向人机价值对齐In-situbidirectionalhuman-robotvaluealignment 。 论文同时被Science官网和ScienceRobotics官网头条刊登 。
让 AI “读懂”人类价值观!朱松纯团队工作登上 Science 头条
文章图片
让 AI “读懂”人类价值观!朱松纯团队工作登上 Science 头条
文章图片
论文地址:https://www.science.org/doi/10.1126/scirobotics.abm4183【让 AI “读懂”人类价值观!朱松纯团队工作登上 Science 头条】本论文提出了一个可解释的人工智能(XAI)系统 , 阐述了一种机器实时理解人类价值观的计算框架 , 并展示了机器人如何与人类用户通过实时沟通完成一系列复杂人机协作任务 。 朱松纯团队长期从事可解释人工智能相关工作 。 此文是团队第二篇发表在ScienceRobotics的关于可解释人工智能的论文 。 这项研究涵盖了认知推理、自然语言处理、机器学习、机器人学等多学科领域 , 是朱松纯教授团队交叉研究成果的集中体现 。
在这个人机共存的时代 , 为了让机器更好地服务于人类 , 理想的人机协作应该是什么样的?我们不妨借鉴一下人类社会的协作 , 在人类团队合作过程中 , 共同的价值观和目标是保证团队之间齐心协力、高效合作的基础 。 当前机器智能大多数基于数据驱动(且很多情况下获取不了数据)、且是单方面接受人类指令(一种是人类观测受限的情况下是没法给到指令的)
为了解决上述问题 , 以及为了让机器能够进行更好地“自主”探索 , 我们要让机器学会“读懂”人类价值观 , 因此我们提出“实时双向价值对齐” 。 这就要求人类要想办法一次次地给到AI反馈 , 逐渐地教会AI“读懂”人类的价值观 , 也就是让机器和人类的“价值观”保持一致 。
这个问题也被称为价值对齐(valuealignment) , 即如何保证人工智能在执行任务过程中所实现的价值和用户所在意的价值是一致的?
可以说 , 价值对齐是人机协作过程中达成共识(commonground)的基础 , 具有非常重要的研究价值 。 价值对齐也是未来的一个重要发展方向 , 是让机器实现“自主智能”的关键所在 , 也是实现通用人工智能的必经之路 。 鉴于此 , 北京通用人工智能研究院院长朱松纯团队一直在致力于此方向的研究 。
1研究背景理想的人机协作应该是什么样的?在人工智能发展方兴未艾之时 , 控制论之父诺伯特-维纳(NorbertWiener)就提出了人机协作的基础:
“如果我们使用一个机器来实现我们的目标 , 但又不能有效地干预其运作方式...那么我们最好能笃定 , 输入给机器的目标是我们真正所预期的 。 ”
近几年来 , 一系列研究进展都表明:高效的人机协作依赖于团队之间拥有一致的价值观、目标 , 以及对任务现状的理解 。 这就要求人类通过与机器的沟通来高效地建立整个团队对任务的共识 , 每个团队成员都采取其他伙伴更容易理解的行为决策来完成协作 。 在大多数情况下 , 队友之间的沟通过程都是双向的 , 即每个成员都要扮演着倾听者和表达者两种角色 。 这样的双向价值对齐决定了人机协作中的沟通是否能够成功 , 即机器人是否能准确地推断出用户的价值目标 , 并有效地解释自己的行为 。 如果这两个条件没有得到满足 , 队友间彼此的不理解和误判很可能会导致协作失败 。 因此 , 想要使人工智能更好地服务于人类社会 , 必须让它们在与人类互动时扮演好这两种角色 。