助手|妇与术(三):机器人可以没有性别,但关系技术离不开女性( 二 )


文章插图
(麻省理工学院研发的Tega教育机器人)
作为一门“关系技术”,社会机器人越来越多地与人类发生深入的交流与合作。人类也越来越倾向于将多学科技术,尤其是心理学、美学、教育学等人文领域相结合,以创造出更自然、更好地支持协作的“机器化身”。
人类既是设计者,也是使用者,那么,在一个充满了性别规范的世界里,机器人是否也应该性别化呢?如果是,它应该是男性还是女性抑或中性呢?
男or女,是一个问题机器人应该被设计成男性还是女性,看起来似乎无需讨论,干什么活儿就设计成什么样不就行了吗?安防机器人就该像高达一样,而商场里的迎宾机器人当然应该像女接待员一样温柔可亲……
这有一定的道理。因为社会机器人要与人类互动,自然就会受到性别的影响。
比如同样是在医院工作,为了增强患者的信心,让机器人看起来足够强大到稳稳地将人抱起来,建造者有机会在外观上加强机器的男性特征。但如果是照顾型的工作,手臂太大或肩膀太大,可能会让病人害怕机器人的力量太大。
可以说,性别特征,是机器人设计中最重要的考虑因素之一。
助手|妇与术(三):机器人可以没有性别,但关系技术离不开女性
文章插图
(机器人 “Paro”,在疗养院为老年人提供心理健康服务)
机器人有性别并不一定不好。但也正如斯坦福大学机械工程学教授冈村爱丽生所说,问题是这种性别是如何使用的。
为了让机器人更有效、用户更愿意互动,设计者们往往会利用性别陈规观念。机器人的性别化,进一步强化了对现实人类的偏见,比如认为女性化应该善良、温柔和顺从,而男性化就必须强壮勇敢。
助手|妇与术(三):机器人可以没有性别,但关系技术离不开女性
文章插图
(日本大阪大学研发的女性机器人)
事实上,歧视已经在机器人世界里发生了,佐治亚理工学院的研究人员发现,机器人被设计的在能力上并无差别,但一旦人们识别到机器人的性别,就会带入以往的经历和偏好,认为一个女性机器人在某些工作中可能不如一个男性机器人。
联合国去年发表的一份报告也认为,虚拟助理(如Siri和Alexa)的默认女性声音,反映出科技行业缺乏多样性。随着这些助手越来越普遍,人类与它们互动的方式会影响我们与真正的人类交谈方式,这种现象会鼓励一些人将女性视为助手。报告建议,科技公司在未来创建助手时默认更多中性的声音。
【 助手|妇与术(三):机器人可以没有性别,但关系技术离不开女性】另外,加上性别标签之后,机器人有了更加严格的行为范围约束以及成见,用这种逻辑制造社会机器人,如服务于儿童教育,就会陷入陈规,无法接触到不同的想法、不同的观点和不同的个性,从而难以走出舒适区、促进成长。
机器人分配的性别不应该强化当前的陈规观念,那么,不将性别强行加给机器人,只能靠开发人员遵守技术伦理来实现吗?
机器人无分男女,但创造者需要社会机器人的本质,是一种能够与用户建立长期社会情感关系的技术,因此它被默认设计为中性,或者是一只狗、一种奇形怪状的毛绒玩具,比如前文中提到的许多机器人都是动物形态。
关键在于,如何与用户建立关系。从这个角度看来,女性开发者在社会机器人中的能量还没有完全释放出来。
一方面,社会机器人的创新需要深入的情感、认知、社交方面的能力,才能帮助人类(尤其是儿童)更健康快乐,更好地学习。
而当多的心理学研究已经证明,女性和男性对待社会关系的方式并不相同。《勇士与流浪者:性别的生存》一书中就提到,女孩往往更注重个人关系,有更亲密的朋友,试图避免冲突,更有能力解决社会问题。而男孩更关心了解自己的技能,友谊中不那么排他性,不太关心交换个人信息或明确谈论他们的关系。