文章插图
推荐-增强回路
今日头条的CEO张一鸣说:“我们不需要主编,有主编就会有倾向性,我们把分发交给算法,用户喜欢什么,我们就推给用户什么。我们不干预用户的喜好。”
对于算法来说,每次互动都是完善模型的有效数据,用户使用得越频繁,推荐的内容就越准确。在极致的情况下,有可能推荐的内容100%都是用户喜欢的。但这种由智能推荐来决定分发信息的方式,最终会使得相近群体的用户无限「趋同」,这个趋同不仅体现在所获取的信息上,还有被信息长时间影响下的思维和价值观念。
算法的设计逻辑是以无限满足人性偏好为标准,当然也包括人性的各种阴暗面都被激活并满足。与此同时,对于一些真正有价值的内容,会被彻底淹没。好比,大街上有位哲学家在演讲,旁边有两个女人在打架,你更愿意去看哪个?
算法实际上垄断了数据的收集和构建方式,以海量的信息构建一个框架,引领和影响众人的决策以及偏好。这种力量如果不加规范,没有任何约束,后果堪忧。如果有一天算法被利用,一而再,再而三给人们推送虚假的信息,那些被算法捆绑的用户,是否能分辨、从而摆脱算法呢?
事实上,这种任由智能推荐发展起来的互联网理想国,我认为急需得当的人为干预,而这种干预要能代表社会的正向价值观。此外,为了避免极端的马太效应,热门的内容越来越热门,冷门的内容越来越冷门。还需有效机制,让分发的内容避免趋同的前提下,带有正向价值观的偏见。
文章插图
推荐-惊喜机制
对于用户而言,就算再喜欢某些内容,也不会只喜欢这类型内容。对于产品推荐的内容,需要在用户喜欢的基础之上,借助人为干预超越已知期望探索「惊喜」。
在协同过滤个性化推荐产生推荐列表的机制下,由于用户评分矩阵极端稀疏等原因,有学者提出了一种基于惊喜度的协同过滤改进算法,算法对于用户的惊喜值、奖励优质项目的贡献、惩罚流行项目的比重,对相似度计算公式进行改进,生成更加合理的邻居用户集,充分权衡推荐内容的惊喜度与准确度。
三、信息茧房的微光最早在2001年,哈佛大学Cass Sunstein教授在《信息乌托邦-众人如何生产知识》一书中提出,人类社会存在一种“信息茧房”现象。他认为在信息爆炸的互联网时代,人们更倾向于只接受自己感兴趣的信息,长期的信息偏食无异于作茧自缚,久而久之接触的信息就越来越局限,人就像被桎梏在“信息茧房”内,失去对其他不同事物的了解能力和接触机会。
在这个时代看似每个人都可以随意获取信息,事实上却是一个信息牢笼,你以为你想看到的,是别人刻意给你看到的。以为什么都能看见,却越什么都看不见。
文章插图
负反馈的连锁反应
在前面讨论智能推荐的信息分发,让用户只看到他想看的内容。对于「不喜欢」的内容,系统会根据用户的喜好,减少个性化的推荐,甚至不推荐。「不喜欢」一般来说在算法中的影响是局部的,受到影响的只是单个用户。但了解过推荐系统智能推荐背后“近邻”的逻辑后,你还会认为你的「不喜欢」只是个人行为吗?
对于推荐列表的内容,面对单个用户标记「不喜欢」,并不会对内容的展现有太多的影响。但是多个用户都标记了呢,事实上,在这样的情况下,系统会自动判定为“劣质内容”,在平台算法周期性更新后,此内容将永远不会获得系统的推荐,也就是永远被淹没在信息的海洋。
- 野生动物园老虎受游客喜爱
- 行走能力|动物模型成功率达八成 人造脊髓植入物有望使瘫痪者恢复行走
- 除夕|你在过春节,虚拟人都在上班赶通告
- 济南发现不明大鸟:竟是国家保护动物大麻鳽
- 虎园庆虎年——美国圣迭戈野生动物园举行中国春节庆祝活动
- 通讯:虎园庆虎年——美国圣迭戈野生动物园举行中国春节庆祝活动
- 虎年首个暴雪预警,局部积雪深度高达66厘米,野生动物会受灾吗?
- 你在过春节,虚拟人都在上班赶通告|春节特辑
- 盲鳗,动物界的“反杀”高手:攻击有风险,黏液让你窒息
- 动物|景区一大象突然发飙 现场撕碎多辆摩托车、汽车