美团外卖|从中国到美国,为什么我们需要禁用算法的权利( 二 )





换句话来说 , 基于兴趣或价值观进行信息消费其实是人的天性 , 陷入“信息茧房”也是某种从人性出发的必然 , 所以算法并不是“罪魁祸首” 。 而推荐算法真正的问题 , 其实在于伦理和道德领域 , 以及它在互联网时代重新建构了人与社会的关系 。
事实上 , 推荐算法是在以机器学习为代表的第三次人工智能浪潮兴起的背景下出现 , 机器学习算法通过基于大数据的自我训练、自我学习过程 , 完成参数调整与模型构建 , 并实现自我强化 。 英国物理化学家、哲学家迈克尔·波兰尼曾指出 , “人类知道的远比其能表达出来的更多” , 这就是经典的“波兰尼悖论” 。



在机器学习之前 , 传统算法局限于人类对于自身的表达 , 需要设计者明确计算机在给定条件下的给定动作 , 而现在的算法则突破了人类表达的局限性 。 固然这带来了效率上的飞跃 , 但算法可以模仿人的思维方式 , 却无法模仿人的伦理自主性 , 在算法实现的过程中排挤了人们对于伦理逻辑与价值理性的追求 。
这也是为什么会出现谷歌图片软件自动将黑人标记为“大猩猩”、亚马逊的招聘软件在招聘员工时读取到带有女性、女子相关词汇时 , 会降低简历权重的现象 。 又或者说 , 在去年秋季引起轰动的《外卖骑手困在系统里》一文中 , 描述了算法给出的“合理”配送时间 , 是需要通过危险驾驶、交通违章才能实现的现象 。



当然 , 现阶段算法的伦理问题其实是与互联网厂商的商业道德密切相关的 。 曾经有观点认为 , 算法只是一个工具 , 它公平地对待平台内的所有内容 , 并表示“算法没有价值观” 。 但遗憾的是 , 这种说法其实是不科学的 。 负面情绪的激发在用户点击和观看上有着更为直接且更为有效的作用 , 并且这已经被科学研究证实 , 在算法的作用下 , 负面信息在内容分发上被给予了远超其在传统媒体中内容分发的权重 。 而Facebook为了提高用户参与度 , 发现最好的参与方式便是向用户灌输恐惧和憎恨 , 就其实是最好的例子 。
对于互联网平台而言 , 如果单纯以商业利益为导向 , 其所采用的推荐算法是必然会对负面信息的分发推波助澜 。 再配搭“过滤气泡”的作用 , 就会在某一群体内促成自我强化的偏见(Self-reinforcing Bias) , 并最终导致群体极化 。



这也是为什么快手联合创始人宿华会说 , “社区运行用到的算法是有价值观的 , 因为算法的背后是人 , 算法的价值观就是人的价值观 , 算法的缺陷是价值观上的缺陷” 。 然而 , 如果算法要契合正向的价值观 , 也就意味着它就是反商业的 , 这也是为什么监管机构要出手规制互联网厂商算法推荐的原因所在了 。