Google|拍了几张儿子的裸照后,这老哥被全网封杀( 三 )


谷歌这种技术大厂 , 更是在2000年初就对这部分内容的审核技术进行投资 。

至于苹果 , 它在今年4月就表示要推出类似的技术 , 用来扫描自家智能设备上的图片和视频 , 专门打击儿童色情内容 。
后来用户们担心自己隐私会被侵犯 , 在海浪般的反对声中 , 果子哥还是妥协了 , 表示暂时搁置该计划 。
直到现在啊 , 这个扫描技术依然没有上线 , 可见阻力之大 。

谷歌这边由于起步早 , 在海外互联网的话语权又足够大 , 用户反而成为了妥协的一方...
而行业内主流的AI审核工具有两个 。
一个是微软在十多年前就发布的PhotoDNA , 它的工作原理和杀毒软件有点像 。
喏 , 每个图片都有唯一的数字签名 , 也就是哈希值 。
微软会创建一个不断更新的库 , 专门存放那些违规图片的哈希值 。
平台只要用PhotoDNA来审核 , 通过提取图片的哈希值和库对比 , 就能快速发现那些违规图片 。



不过大家估计都能猜到 , 它的缺点还是挺明显的 。

PhotoDNA能不能检测出CSAM内容 , 完全取决于“违规库”够不够全面 。
所以技术能力贼强的谷歌 , 也在2018年发布了基于机器学习的Content Safety API , 并免费提供给各个企业使用 。

Content Safety API基于机器学习 , 进化速度快 , 准确率更高 。
但它也有一些小缺点 , 首先在原理和微软家的就不太一样了 。
谷歌这个玩意儿需要人机结合 , 说白了会自动给违规图片打上“优先级” 。
那些被标记为优先级高的图片 , 才会经由人工审核处理 。

像马克所拍摄的图片 , 就是属性过于明显 , AI甚至不用交给审核员来处理 , 自己就能标记为“纯纯的违规图” 。
于是封号+报警两大操作 , 就落到大冤种马克头上了...

怎么说呢 。
如果只按照图片来处理 , 那马克拍的儿童下体图 , 肯定是违规的 。
但人是有感情的 , 得结合情境来理解 , 人家是为了给医生判断病症 , 才拍的照片 。
连警察都调查完毕 , 说马克是无辜的 , 谷歌这边硬是不解封 , AI犯的错 , 还得让当事人来还...
除此以外啊 , AI审核还误封过不少欧洲艺术雕像 。
按事实来说 , 这些雕像确实是裸体 , 但从艺术的角度来看 , 这又不是啥问题 。

AI审核的准确度还比较“死板” , 不然也并不会有人工审核岗位了 。

相比其他大厂 , 谷歌最头铁的是过于依赖AI审核 , 很多图片没走到人工审核那一步 , 就被AI“判罪”了 。
而且谷歌的态度也挺那啥 , 属于是宁愿杀错 , 也不放过 。
【Google|拍了几张儿子的裸照后,这老哥被全网封杀】只能说 , AI虽好 , 但也不能矫枉过正 。