人工智能|DARPA选择SoarTech来测量人类-人工智能信任

SoarTech公司用于数据收集、自主系统、语音识别和意图解释以及建模和仿真的TrustMATE技术被用于美国国防部高级研究计划局(DARPA)空战进化(ACE)项目第一阶段的工作。
人工智能|DARPA选择SoarTech来测量人类-人工智能信任
文章插图
具体来说,技术领域2(TA2),空战进化项目——用户-系统协作的信任和可靠性(ACE-TRUST)实施了一种实验性方法,用于建模和测量飞行员对空中格斗自主性的信任,并测试了一种新型的人机界面(HMI),以沟通人工智能的可信性。
【 人工智能|DARPA选择SoarTech来测量人类-人工智能信任】由Dynetics公司和SoarTech公司开发的无人智能(unmanned intelligence, UI)将使飞行员能够执行作战任务指挥官的任务,但ACE-TRUST的重点是飞行员对空中格斗自主性的信任。
人工智能的信任水平在人与代理的互动中是动态的。这种信任的相互作用需要被测量、建模和校准,以便为了交战成功进行最佳的人与人工智能的合作。
"认为一项技术会被使用是很容易的,但用户的接受度实际上要难得多,尤其是在需要保证安全和执行关键任务的时候,"SoarTech高级科学家Lauren Reinerman-Jones博士说。"校准人与系统的信任能够使人们对自主性的依赖达到适当的水平。对信任的精确测量,是使用自主性的关键--在正确的时间使用正确的量。我们的方法和模型与环境相关,并可用于作战。"
基于飞行员与系统的互动以及生理数据,飞行员的信任被测量和建模。下一步是根据自主性的能力来评估这种信任,并有意识地将飞行员的信任与空中格斗算法的能力进行适当的校准。
对自主性的信任将使操作者能够自信地进行多任务处理。这个想法是为了捕捉人类信任的模型。
SoarTech是这项研究第一阶段的牵头者,并得到了柯林斯航空航天公司、爱荷华大学操作性能实验室和雷声公司的支持。
Reinerman-Jones说:"我们将把我们在DARPA ACE(美国国防部高级研究计划局空战进化项目)上的成果过渡到AFRL[美国空军研究实验室]小企业创新研究(SBIR)第二阶段,以扩大我们的客观信任模型的能力,在人类-自主性团队协作的整个生命周期中捕捉到信任的动态性质。这项工作的愿景是拥有一个强健的客观信任模型,它可以通过自主性的可信度进行调整。我们将使用系统的可信度来开发可解释和透明的人机界面,使用视觉、声音甚至触摸来校准操作员的信任。被信任的人工智能是法律、道德和伦理自主性的未来。"