伦理|读书|70年追问在途中:机器人何以成为道德主体?( 二 )


拥有人脑的机器人是否值得拥有人格?
人类与机器人之间的情感和性爱关系,可能导致人类情感依赖甚至伤害的危险。一些人机交互的实验表明,人类受到机器人存在的影响通常只由另一个人的存在引起。然而,在人机交互的情况下,情感纽带是单向的。可怕的是,这种情感关系可能被诸如制造机器人的公司利用。惠特比(BlayWhitby)考虑社会孤立如何驱使人们向机器人寻求爱和感情时,他直言:人与人之间和平甚至充满爱的互动,本身就是一种道德善。我们不应该相信那些动机——希望以一种倾向于替代人与人之间互动的方式引入技术的人。
在全球范围内老龄化社会提前到来之时,机器人与人类之间以医疗和陪护的形式进行的互动在很大程度上是值得称道的。机器人监管可能导致隐私和自由的丧失,我们如何避免机器人护理变得过于严格甚至侵权?另一个问题,是机器人护理可能会减少或取代社会成员间的人际接触,进而使得这些弱势群体变得更加边缘。
有朝一日,我们是否会看到机器人权利的“解放宣言”?机器人带来的最大道德难题可能是人类拟人化的倾向。在某种意义上,机器人是否可以是人,这将是保证它们是否获得道德主体地位的关键。一个拥有人脑的机器人是否值得拥有人格?对于沃里克(Kevin Warwick)这样的神经科学家而言,答案是肯定的。在他看来,对人格的心理能力采取典型的物理主义和功能主义方法,是教条式错误。与人格相关的心理能力可以被区分为不同的功能性神经活动,而不是与特定的生物状态相关联。
70年的担忧正以技术与人类结合方式攻克
从人工智能和机器人技术诞生开始,作家和电影制作人就一直在积极预测,随着更先进技术的出现,未来会是什么样子。1942年,萨克·阿西莫夫的“机器人三定律”首次出现在他的科幻小说《逃跑》中,至今仍广为流传。在1985年的《机器人与帝国》这本书中,阿西莫夫将三大法则扩展为四大法则,即机器人不得伤害人类整体,或坐视人类整体受到伤害。阿西莫夫的科幻想象,主要强调了法则无法终极保护人类。从上世纪80年代开始,包括《终结者》《机械战警》《黑客帝国》在内的百余部影视作品,都在警告这类反乌托邦的未来世界的风险。目前,机器人专家正在以挑战基本伦理和文化理念的方式将技术与人类相结合。现在是考虑机器人整体道德问题的时候了。
《机器人伦理学》不仅浓缩了当前机器人伦理所面临的许多障碍,而且为机器人伦理学领域内需要提出和回答的问题制定了研究议程。他们提出的一个核心问题是,“机器何以成为道德主体?”很多研究者曾提出这个问题,但似乎没有人真正解决过。虽然没有人会合理地低估找到机器成为道德主体的难度,但似乎很清楚的是,一旦给出答案,围绕机器人伦理的许多问题,如道德和法律责任、人格和权利等,将迎刃而解,并形成明确和一致的立场。
【 伦理|读书|70年追问在途中:机器人何以成为道德主体?】

作者:郁锋
编辑:薛伟平
责任编辑:朱自奋