哈工大丁效:基于神经符号的认知推理方法( 四 )
【哈工大丁效:基于神经符号的认知推理方法】传统的因果推理模型多数以黑盒方式 , 直接从标注的因果事件对中学习因果知识 。 因此可能利用部分与标签存在相关关系的统计特征做出判断 , 致推理结果的不稳定 , 不可靠 , 不可解释 。
如何还原背后的因果决策机制?我们提出引入中间证据事件 , 还原背后的因果逻辑链条 。 这种因果逻辑链条提供了更强的可解释性 。 在ACL2021上 , 我们的工作ExCAR:事理图谱知识增强的因果推理框架 , 能够从预先构建的事理图谱中获取中间证据事件 。
文章图片
具体而言是使用条件马尔可夫神经逻辑网络(CMNLN) , 其中逻辑网络具有较强的可解释性与可靠性 。 神经逻辑网络是指利用神经网络表示规则 , 并赋予每个因果规则以权重(因果强度) , 以应对规则集合中可能存在的噪音与统计关系的复杂性 。 条件马尔可夫还能支持因果叠加效应 , 即对于同一规则 , 不同的前件可能对因果强度带来不同的影响 。 基本逻辑是:证据事件→逻辑规则→因果逻辑图 。
4机器学习:人与机器之间的信息交互下面从人机交互的角度 , 思考机器学习 。 当前的机器学习过程:极度依赖静态的标注数据集 。 例如标签蕴含的信息有限 , 这导致学习效率低下、对于复杂任务 , 标注尤为昂贵、数据过时导致模型无法使用 。
文章图片
机器向人的学习远远不只是说去学标注的数据 , 可以学习的种类非常多样 , 例如点击用户的行为数据 , 以及用户的解释信息 。 实际上用户的解释的信息对于机器学习而言是非常重要的 。
如上图的例子 , 小明根据ab/b=a , 推导出SinX/n=six 。 老师则认为这是不对的 , 因为Sin是整体 , 是三角函数 。
因此 , 基于上述观察 , 我们在ACL2022会议论文中提出 , 不仅进行因果推理的任务 , 还需要给出相应的解释 。 不只是针对某因果对解释 , 可以是概念性的解释 。
文章图片
例如将铁块加入盐酸中 , 导致铁块被溶解 。 需要生成概念性的解释酸具有腐蚀性 , 显然这不只是因果对的解释 。
当前的因果推理系统仍缺乏此类常识 。 例如 , 现有的因果推理数据集只提供因果对及其标签 , 缺少对因果关系原理层面的解释 。 而人类能够同时运用具体的因果知识 , 以及对于因果机制的深入理解以高效、可靠地推理出因果关系 。 因此 , 未来认知推理 , 它一定需要和脑科学进行结合 。
文章图片
雷峰网雷峰网
- 索尼|36氪首发 | 基于钉钉与支付宝生态,「1号系」职场综合服务平台获数千万元A轮融资
- |嵌入式开发:设计基于 RTOS 的应用程序的最佳实践
- 安卓|OPPO ColorOS 新版本曝光,均基于安卓 13 开发中
- Windows|AMD RX 7900 XT如期而至,基于5nm台积电开始流片
- 本文转自:人民网基于光纤传感技术的轨道变形测量。|铁四院两项科创成果亮相首届大国工匠创新交流大会
- flyme9|魅族手机系统再次更新:带来多项新功能,可惜仍基于安卓11底层
- 高德正式发布“工作地图”,打造基于位置的数字化协同工具
- 安卓|订首发权?基于安卓 13的ColorOS新版本已在路上,两个月后问世
- ColorOS|ColorOS将推出基于安卓13全新版本,能否带来体验的全面进化?
- 程序员|基于传感器的物联网监测系统,涵盖了环境监测