自动化|对自动化系统的过度依赖或自满,导致人们认为它比实际更有能力

自动化|对自动化系统的过度依赖或自满,导致人们认为它比实际更有能力

文章图片

自动化|对自动化系统的过度依赖或自满,导致人们认为它比实际更有能力

文章图片

自动化|对自动化系统的过度依赖或自满,导致人们认为它比实际更有能力

文章图片


过度依赖或自满是导致人们认为自动化系统比实际更有能力 。 使用每1000万小时失败一次的系统的操作员往往会低估自动化错误的可能性并过度信任系统 。 因为他们觉得系统不需要他们有效地工作 , 他们本能地降低了分配给监控的认知资源 。 第一个经验证据是帕拉苏拉曼等人的研究 。 他们在由2D补偿跟踪、燃料管理和系统监控组成的飞行模拟任务中测试了非飞行员参与者 。



在多任务条件下 , 参与者手动执行跟踪和燃料管理任务 , 而自动化处理系统监控 。 在单任务条件下 , 参与者只需监督系统监控任务中的自动化 。 在这两种情况下 , 自动化可靠性都是可变的 。 参与者负责检测这些故障 , 当出现故障时他们必须接管 。 帕拉苏拉曼等人观察到参与者在手动执行发动机状态任务时的检测率超过70% 。 在多任务条件下执行任务时 , 他们的检测率大幅下降 。



有趣的是 , 当他们处于单一任务条件下时 , 这种影响不存在 , 这表明认知资源的分配在自满效应中发挥了作用 。 与手动控制相比 , 操作员在使用自动化时对原始信息源的眼球运动更少 , 这反映了对其他并发任务的注意力分配 。 此外 , 与手动模式相比 , 操作员倾向于在自动化模式下更频繁地可视化参数 , 因此盲目相信自动化诊断 。 在低概率信号环境中 , 曼利等人使用持续关注响应任务来证明信号概率和检测率之间存在显着的正相关 。



这些结果表明 , 自满可能与走神密切相关 , 因为自满和走神都会将认知资源从手头的任务中转移出来 。 监督超可靠系统似乎鼓励减少分配给监控任务的认知资源 。 在这种情况下 , 自动化节省的资源 , 通常应该用于计划飞行 , 将被用于与任务无关的想法 。 因此 , 自满可能会导致操作员释放认知资源并将其重新分配给不相关的想法 。 这一断言得到了在低概率信号环境中观察到的走神增加的支持 , 并且因为一个人已经在更长的时间内完成任务 。 然而 , 这种联系的确切方向仍有待评估 。



走神(MW)也可能在自满之前发生并改变其出现 , 例如通过降低运营商自满所需的信心水平 。 需要进一步的数据才能采取立场 。 当设计师将自动化集成到系统中时 , 他们通常认为它只会替代人工操作员 。 然而 , 文献的重要部分已经积累了反对这种观点的证据 。 自动化不仅仅是简单地执行以前由人类处理的任务 。 它还改变了任务的复杂性并产生了新的问题 , 从而改变了人类工作的性质 。

操作员放弃对系统的直接控制 , 转而在监督控制回路中扮演监控角色 。 这些变化绝非微不足道 , 直接控制涉及手动功能 , 包括流程规划、决策制定、选择响应和实施策略 。 同时 , 被动信息监控只需要扫描信息源并与之前学习的参考资料进行比较 。 在自动化环境中 , 操作员可能会失去手动技能、控制感下降以及与系统的距离感 。 这个距离会干扰操作员对任务的参与 。

【自动化|对自动化系统的过度依赖或自满,导致人们认为它比实际更有能力】