用户|从中国到美国,为什么我们需要禁用算法的权利( 二 )


用户|从中国到美国,为什么我们需要禁用算法的权利
文章插图
在机器学习之前,传统算法局限于人类对于自身的表达,需要设计者明确计算机在给定条件下的给定动作,而现在的算法则突破了人类表达的局限性。固然这带来了效率上的飞跃,但算法可以模仿人的思维方式,却无法模仿人的伦理自主性,在算法实现的过程中排挤了人们对于伦理逻辑与价值理性的追求。
这也是为什么会出现谷歌图片软件自动将黑人标记为“大猩猩”、亚马逊的招聘软件在招聘员工时读取到带有女性、女子相关词汇时,会降低简历权重的现象。又或者说,在去年秋季引起轰动的《外卖骑手,困在系统里》一文中,描述了算法给出的“合理”配送时间,是需要通过危险驾驶、交通违章才能实现的现象。
用户|从中国到美国,为什么我们需要禁用算法的权利
文章插图
当然,现阶段算法的伦理问题其实是与互联网厂商的商业道德密切相关的。曾经有观点认为,算法只是一个工具,它公平地对待平台内的所有内容,并表示“算法没有价值观”。但遗憾的是,这种说法其实是不科学的。负面情绪的激发在用户点击和观看上有着更为直接且更为有效的作用,并且这已经被科学研究证实,在算法的作用下,负面信息在内容分发上被给予了远超其在传统媒体中内容分发的权重。而Facebook为了提高用户参与度,发现最好的参与方式便是向用户灌输恐惧和憎恨,就其实是最好的例子。
对于互联网平台而言,如果单纯以商业利益为导向,其所采用的推荐算法是必然会对负面信息的分发推波助澜。再配搭“过滤气泡”的作用,就会在某一群体内促成自我强化的偏见(Self-reinforcing Bias),并最终导致群体极化。
用户|从中国到美国,为什么我们需要禁用算法的权利
文章插图
这也是为什么快手联合创始人宿华会说,“社区运行用到的算法是有价值观的,因为算法的背后是人,算法的价值观就是人的价值观,算法的缺陷是价值观上的缺陷”。然而,如果算法要契合正向的价值观,也就意味着它就是反商业的,这也是为什么监管机构要出手规制互联网厂商算法推荐的原因所在了。