算法|从脸书到短视频,推荐算法会把所有人都困在元宇宙中吗?

算法|从脸书到短视频,推荐算法会把所有人都困在元宇宙中吗?

文章图片

算法|从脸书到短视频,推荐算法会把所有人都困在元宇宙中吗?

一觉醒来 , Facebook改名Meta , 扎克伯格不要face了?
在创始人信中 , 扎克伯格表示 , 元宇宙是下一个前沿 , “我们将以元宇宙为先 , 而不是Facebook优先 。 ”
名义上冠冕堂皇 , 但Facebook此举 , 也许是为了避开越来越大的公众愤怒 。
就在10月份 , Facebook刚遭遇一场信誉危机:“吹哨人”弗朗丝·霍根(前 Facebook 产品经理)公开声称 , 脸书通过算法 , 放大网络上的仇恨言论 , 传播虚假谣言 , 将公司利益凌驾于安全利益之上 。

现在危机再次袭来 , 媒体调查Facebook内部文件 , 证明:算法加剧了极端和仇恨内容的传播 , 令用户偏向极端和分化 , 继而在世界各地引发更多暴力和冲突 。
什么意思呢?简单来说就是算法读取你的偏好 , 然后故意推荐一些让你上瘾或者生气的内容 , 让你产生跟别人撕X的欲望 , 从而更久地浏览他们的网站或者App 。
无独有偶 , 不仅是国外Facebook这种算法公司 , 国内也有抖音等算法公司 , 都想做元宇宙 , 让所有人都生活在一个被算法安排的世界里 。
在座的肯定有许多吃瓜群众 , 对算法技术可能不懂 , 并不知道的孰真孰假 , 无从判断 , 甚至不少人会质疑“拥有算法的互联网公司”真的有这么大的能量吗?
推荐算法平台 , 如何批量制造 “爱国小视频”骗取舆论正能量
事实上 , 算法拥有的力量远比我们想象的更可怕 , 甚至可以操纵“大事件”的发展 。
这里就不得不提及“美国前总统特朗普”了!有证据表明 , 围绕着特朗普的纷争 , 与拥有算法的互联网公司Facebook关系密切 。
《华盛顿邮报》、《华尔街日报》曾表示 , Facebook备忘录披露了公司传输错误信息 , 激化了美国民众的民族主义 , 最终引发“国会山事件” 。
简单来讲 , 据Facebook的算法机制 , 当你关注大选保守派时 , 网站会推荐用户加入专门讨论虚假新闻的QAnon阴谋论集团体 。 民众无法判断新闻的真实性 , 一些“假新闻”又能极大地刺激民众的心理 , 让事件不断地向极端发展 。
这些控诉和事件 , 很容易让人联想到国内舆论场的现象:一些反智、极端、情绪化声音此起彼伏 , 而理性、客观、富有建设性的意见 , 常被无情淹没 。
这种现象不只存在于Facebook , youtube、TikTok、抖音等短视频平台尤为严重 。
日前 , 官媒点名批评短视频平台出现的复制编造“爱国流量故事” , 把爱国做成了生意 。
视频均以“我们没有生在和平年代 , 而是生在一个好国家”为统一文案 。 场景都是自己在海边/江边架起支架用手机拍摄视频 , 身后50米左右停着一辆边防特警车 。 然而这些批量复制的视频 , 却骗取了网友几十万的点赞和播放量 。
将社会正能量做成流量生意 , 操纵舆论 。 难怪有学者呼吁警惕 , “一旦被别有用心的人利用 , 容易将舆论引导至意识形态或者涉政的内容范畴 , 产生不良的社会影响 。 ”
除此之外 , 算法还成为了大型企业控制市场的主要工具 。 中国金融四十人论坛资深研究员、清华大学五道口金融学院院长张晓慧表示 , 算法打着保护竞争优势和商业秘密的名义 , 为大型科技公司故意隐藏规则、操纵消费者和制造歧视创造了更多的灰色空间 。
清华大学新闻学院教授沈阳曾表示 , 特别要警惕流量造假与算法推荐的结合 , 用算法推荐营造“信息茧房” , 用虚假流量渲染关注程度 。 这在目前商业领域不正当竞争中已有不少应用的案例 。