bilibili|他25岁,鉴黄师,猝死在互联网大厂( 三 )



有女性每天接触大量色情图片 , 在矛盾的情绪中度过每日 。



这已经是幸运的情况 , 还有些人 , 看的不是小黄图 , 是恐怖分子的斩首视频 。




一位审查员在镜头前提起自己始终忘不掉的一个画面:在一次审查直播的过程中 , 他看到一场自杀直播 , 画面中的人已经套上了绳圈 , 但他不能中断直播 , 因为此人尚未真正实施自杀 。
如果贸然中断 , 他们可能会受到指责 , 管理机制将对他会问责 。
“他踢开椅子 , 就这样死了 。 他痛苦挣扎但已经晚了 , 脖子的骨头都断了 。 ”
刺激、压抑、愤怒、冷漠、恐惧、恶心…… 各种千奇百怪的内容 , 不断冲刷审核员的感官 , 把他们的神经敏度推至极限 , 然后坐如过山车一样 , 激荡过后慢慢习惯 , 情感开始变得麻木 。
然后 , 要么离职;要么忍受麻木加班 , 晚上回家做梦都会见到各种各样千奇八怪生殖器 。



最终 , 他们的时间被分割成秒 , 变成重复着“删除” , “通过”指令的机器人 。

6


有人会问 , 说好的人工智能呢?2022年了 , SIRI都会讲冷笑话了啊 。

抱歉 , AI还不行 , 或者准确的说法 , 还不足够行 。
虽然现在由于每天在互联网产生的海量内容 , 人力根本不可能够用 ,, 所以几乎所有大型平台都在采用“人+AI”的审核方法 。




但因为自然语言处理本身的高难度 , 导致机器在理解语言上 , 还远不如人类 。
这导致即使如简单的文字信息 , 机器审核也很容易出错 , 更不用说复杂的图片 , 视频和音频 。
在机器视觉“国考”中的ImageNet国际挑战赛上(数据集有1400多万幅图片 , 涵盖2万多个类别) , 深度学习的系统DeepID2可以达到99.47%的识别率 。



△人工智能在决策中使用到的函数
这意味着每一千张图片 , 机器最多只会出错53次 , 怎样 , 听上去是不是已经很厉害了?
但是即便是每一千张图片 , 机器只出错53次 , 也意味着需要人工复查53次 。
因此AI识别在海量内容面前 , 大量犯错是必然的 。
最常见的 , 是漏判 , 隐晦的色情和暴力它们看不出来;然后是误判——是把战争映像当作暴力内容 , 把母乳喂养辨别为色情内容 。
就连加菲猫也经常惨遭毒手 , 因为它们的颜色在AI眼里看上去像人类大片裸露的皮肤 。



要解决这个问题 , 就需要AI在数百万个违规内容数据的基础上进行重复训训练 , 这意味着公司需要为此付出大量的时间和成本 。
FACEBOOK曾经表示他们还需要5-10年才能开发出准确识别仇恨言论的AI 。
而现在 , 人显然比人工智能便宜 。

7

矛盾的是 , 比起普通的内容 , 人们就是更喜欢那些碍于良俗上不了台面的内容 。

包括B站在内 , 所有内容平台都遵循着一个生存法则——如何吸引用户的注意力 。
而人性本身就会被吸引刷新底线的、挑战禁忌的、煽动对立的、制造愤怒的内容所吸引 。