豪根|拆解Facebook新一轮信任危机 : 算法黑盒一角正被揭开

豪根|拆解Facebook新一轮信任危机 : 算法黑盒一角正被揭开
文章插图

图源:图虫
编者按:本文来自微信公众号棱镜(ID: lengjing_qqfinance),作者王凡,创业邦经授权转载。
出生在美国爱荷华州、现年37岁的豪根(Frances Haugen)曾经担任社交媒体巨头Facebook脸书的产品经理。离职前一天,她在公司内网输入信息:“我爱脸书,我想救它。”
2021年10月5日,豪根出现在美国国会参议院的听证会上,公开指出脸书产品存在危害儿童、放大偏见、鼓励两极化等问题,“公司高层明知有方法可以让脸书和Instagram更为安全,但无动于衷。因为他们总是将利润置于安全之上”。
“这个平台旨在利用消极情绪将人们留住。”豪根表示,“他们意识到将人们所做选择进行放大后的副作用。他们知道基于算法,或者基于参与度的内容排名,可以让你在网站上停留更长的时间。你花时间更长,点击的次数更多,这会让他们赚更多的钱。”
“他们想让你们相信,要想和所爱之人保持沟通,就要牺牲个人隐私;如果想要跟老友分享孩子的有趣照片,就必须容忍虚假信息。他们想让你们相信,这就是交易的一部分。”豪根在听证会上表示,“但这不是真的。有解决之道。”
在参加国会听证之前,她已经将多份脸书内部研究文件提供给美国财经媒体,以证明脸书高层明知平台正在滋生仇恨言论和极端主义,旗下产品Instagram涉嫌诱发和恶化青少年的心理健康问题,但仍袖手旁观。同期,她的代理律师向美国证监会撰写举报信,称作为上市公司,脸书刻意淡化和隐瞒产品风险和负面影响,在向投资人和潜在投资人的陈述中存在重大失实陈述和遗漏,涉嫌违反美国证券法。
面对吹哨人的举证,脸书发言人公开回击称,豪根不是管理层,不了解决策过程,她本人在脸书也并非任职于儿童产品组,所引用的内部文件,有断章取义之嫌。但豪根的举证,正在引发“多米诺效应”,不仅可能推动对美国儿童在线隐私保护的新立法,也可能引发监管者对《通信规范法》第230条款(Section 230)是否符合现状的重新审视。该条款被称为互联网公司的“保护罩”,规定互联网服务供应商无需为第三方使用者的言行负法律责任。
豪根的举证,汇入当下对平台型科技公司如何平衡利润增长和社会责任,以及如何在不侵犯知识产权的同时,增加算法透明的公共讨论洪流中。在信奉“规模大于一切”的硅谷,脸书凭借“行动胜于完美”的迭代思维,在17年内成长为拥有30亿用户、年收入860亿美元的庞然大物。但在“算法黑箱”遭遇质疑的当下,这家号称不以赚钱为主要目的的社交帝国一方面面临着TikTok、Snapchat 等其他新兴社交媒体的攻城略池,另一方面需要处理用户、广告主、监管方的新一轮博弈,解决方法不会那么简单。
吹哨人举报了什么问题?豪根|拆解Facebook新一轮信任危机 : 算法黑盒一角正被揭开
文章插图

豪根的代理律师向美国证监会撰写举报信,称作为上市公司,脸书刻意淡化和隐瞒产品风险和负面影响,在向投资人和潜在投资人的陈述中存在重大失实陈述和遗漏,涉嫌违反美国证券法
在听证会上,豪根将矛头指向脸书的决策方式——算法过于看重“用户参与度”,增长高于一切。豪根认为,脸书的选择,对儿童和社会是“灾难性的”。
豪根以在脸书的从业经历加以说明。2019年,豪根加入脸书的“公民诚信团队”。该团队的主要任务为识别处理政客误导性和有害发帖,以减少平台上虚假信息。但根据外媒报道,2020年12月,该团队遭遇拆分,汇入更大的团队中。包括豪根在内的部分员工认为,此举实为削弱该团队的影响力,甚至成为1月6日国会骚乱的原因之一。