微信|光芒万丈的互联网行业,照不亮审核员的心( 二 )





特别是在进入了web2时代后 , 社交网络的出现让每个人都有了表达自己的欲望 。 但web2所带来人人皆可参与的互联网世界则让信息量“爆炸” , 而在信息密度陡然有了指数级的提升 , 再叠加上互联网厂商本身用户规模的不断增加 , 无疑也使得审核的压力只会越来越大 。
原本互联网厂商寄希望于在近年来不断成熟的人工智能参与到审核工作中 , 并试图用机器来替代人工 。 但结果却是从海外的Facebook、Google , 到国内的字节跳动、快手 , 这些以算法闻名的互联网厂商均在不约而同地扩张审核团队的规模 。



如今人工智能在审核上虽然可以起到一定的作用 , 但又不完全管用 。 得益于深度/机器学习技术的成熟 , 人工智能在经历了海量数据的浇灌下 , 已经拥有了对于内容的识别能力 。 Facebook的CTO Mike Schroepfer曾表示 , Facebook已经能够自动从社交网络上删除96%的裸露内容 , AI系统可以识别出65%包含仇恨言论的帖子 。
但是在2017年举世震惊的新西兰克赖斯特彻奇的枪击案直播事件后 , 他也曾悲观的表示 , 仅靠人工智能技术无法根除不良信息的扩散问题 , 以及“我真的认为我们已经走到了尽头 , AI无法‘解决一切问题’ , 开发团队应该收拾行李回家 。 ”
随着计算机视觉技术的成熟 , 让AI对于图片和视频内容的自动化审核是有着不错的效果 , 但其对于文字内容 , 则往往依赖关键词过滤 , 对于自然语义的理解还有着不小的问题 , 并没有做到如人一般灵活 。 再加上 , AI的道德与人类的道德是完全不同的 , AI的道德观实际上是基于既有数据进行训练的结果 , 与人类的思考模式并不一样 , 这也就是为什么会有Facebook的吹哨人指责其用AI算法来助长偏见 。



如今随着互联网行业被宽容、被保护的时代结束 , 反而成为了舆论和反垄断的焦点后 , 在这一背景下 , 互联网厂商无疑需要更加如履薄冰 , 自然不能在内容审核上出错 。 而借助AI将疑似有害的内容发送给人工审核进行二次判断 , 显然无论从安全角度还是成本角度来讲 , 可能都是最优解 。
如此看下来 , 互联网审核员的困境其实也就很好理解了 。 几乎没有技术含量决定了审核员的待遇不可能太高 , 而在海外市场中 , 互联网企业将审核团队放到发展中国家 , 以及国内互联网公司在二三线城市招募审核人员也佐证了这一事实 。 再加上工作内容的枯燥乏味 , 让审核员也很难从工作中找到获得感 , 以及互联网平台对于不良内容的高压政策 , 更是让审核员如履薄冰、精神始终处于紧绷状态的诱因 。



更为重要的是 , 且不提审核工作是需要一年365天、一天24小时都不能停止的工作 , 长期面对网络中的负面内容对于人员的精神健康无疑也是一项极大的考验 。 早在2018年 , 就有两位德国创作者拍摄了Facebook位于菲律宾的审核团队的故事 , 并制作了反应审核员工作的纪录片《网络审查员》(The Cleaners) , 片中Facebook的审核团队成员就直言不讳地表示 , 自己笼罩在巨大的精神压力之下 , 甚至出现各种不好的倾向 。
同样是在2018年 , 就有前Facebook内容审核员因工作患上PTSD而起诉Facebook , 这场诉讼在2020年告一段落 , 而Facebook则为此付出了5200万美元 。 待遇差、压力大、日夜颠倒 , 这些问题的结果就是一线审核人员月流失率高达15%的原因 , 但即便如此 , 在大厂光环的吸引下依旧还是有源源不断的人来“填坑” 。

【微信|光芒万丈的互联网行业,照不亮审核员的心】