m相比于机器,我们对人类的错误更加宽容吗?( 二 )


文章插图
自动驾驶汽车比人类驾驶员更负责任吗?
随着自动驾驶离现实越来越近,我们可能好奇:相比于人类驾驶员,用户如何看待自动驾驶汽车需要承担的责任?
为了回答这个问题,Hidalgo和他的团队把参与者置于各种各样的道路事故(包含了人类司机或自动驾驶汽车)之中。这些事故的严重程度可能取决于内在或外在因素,也包含了是伤害司机还是路人的抉择。
这项实验首次提出了自动驾驶汽车担负了巨大的责任。参与者对涉及自动驾驶汽车的事故判断更为消极,认为它们会造成更严重的伤害。其中一个原因是因为他们更容易把自己带入人类驾驶员的视角(而不是机器的视角),他们更能同理人类司机做出的反应(毕竟在自己身上可能也会发生这样的情况),尤其这是由外部因素导致的事故(比如一棵树倒在了路上)。
因此,参与者对造成事故的机器毫不宽容,希望它们更可靠安全。
五、机器的好坏完全取决于结果我们可以从这些研究中得出什么结论呢?
m相比于机器,我们对人类的错误更加宽容吗?
文章插图
César Hidalgo | How Humans Judge Machines | Talks at Google②(视频地址见相关阅读)
首先,当整体看待受伤害感和行为目的的关系时,人们认为人类行为比机器行为更带有目的。然而矛盾的是,参与者仍然会更容易原谅人类的行为,因为他们更容易将人为错误视为坏运气的结果,而机器错误则是需要纠正的错误。
当我们在研究行为目的和不公正之间的关系时,我们发现了一个更符合人类判断的事实:对于那些带有当事人强烈主观意图的场景(比如侮辱和歧视),人们显然会对人类行为做出更为负面的评价。人们认为人类需要为自己的邪恶意图负责任,而机器则被默认为没有自己的意图和目的。另一方面,一些本身不带有目的的情况(比如交通事故),机器则承担的责备会更多。因为我们已经假定了机器的程序可以避免任何错误。
最后通过评估不公正的感知和伤害范围之间的关系,我们发现:对涉及人造成的伤害越小,机器就越被视为罪魁祸首;相反,当伤害越大,人类当事人承担的评价就越为负面。
总之,我们看到了两种截然不同的判断模式。
当涉及人类当事人时,观众就会通过当事人的意图来评判他们的行为:他们可以犯错,但如果居心不良,他们就需要对自己的行为负责。
另一方面,机器的评估标准是行为的结果:如果它们无法避免破坏性的错误,无论发生的是什么,它们都会被批评。好的一面是,对于一些通常被定性为非常严重的情况(歧视或恶意羞辱),因为机器行为不带有目的,所以常常不被苛责。
但这也意味着,作为设计师的我们,需要尽量减少数字服务和智能应用程序可能产生的间接伤害和歧视。因为可没有人会同情设计糟糕的算法③。
③译者注:
设计师和算法的关系
由于译者正好从事自动驾驶行业,所以就简单聊聊这个话题。可能有人会认为糟糕算法能是程序员的问题,这和设计师有什么关系?
但事实上在以正向研发为主要流程的企业内,一个需求落地至少要经过产品经理,设计师,研发和测试四个阶段。产品和设计师需要根据客户/用户的诉求去定义和产品的功能和使用方式,然后研发才会在设计的框架内去实现这些功能。自然当设计师遗漏或者忽视一些安全问题时,研发是无法发现的,因为在他们的角度,功能的上下文是不明确的,他们只专注于功能本身的研发。
举个例子,假设我们设计一个工业园区内使用的远程自动驾驶汽车遥控器,它的功能是给车辆派发运货订单,并且可以远程启动车辆。那么如果设计师对于使用场景足够了解,他会发现如果远程启动车辆,突然的启动可能会对周围在装卸货的工人带来安全隐患。