美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶( 三 )


苹果最终搁置了图像扫描部分的功能 , 但依旧保留了在家庭共享计划中包含儿童帐户的可选功能 。 家长可以选择性为孩子开启分析图片是否有裸露图像的功能 , 如若监测到裸露图像还会进行模糊处理 。
就连苹果也想要在自己产品中加入 CSAM 识别功能 , 很大一部分原因是这属于红线——无论是对于普通用户、执法机构 , 亦或是平台 , 它们对这件事的容忍度都极低 。

这同时也意味着当你真的需要科技公司技术配合的时候 , 选择儿童性犯罪案件先进行合作会获得较多的民众支持 。
英国在线安全法案的更新就打算规定「用户对用户服务」提供商必须努力向国家犯罪局报告任何分享的儿童性剥削和性虐待内容 。 这项立法修正案明确规定 , 企业应开发能够检查信息(包括端到端加密通话)的软件 , 以主动发现儿童性犯罪材料并向当局报告——否则将面临制裁 。
只是 Google 的故事则告诉我们 , 哪怕这个功能顺利运行也有「错杀」的风险 , 而每一次误伤对于清白的用户都会造成伤害 。 技术未必能够解决所有的问题 , 我们熟悉的人工智能、算法在面对棘手的社会问题时依旧过于「单纯」 , 很难依靠单一的技术去发现潜在或已经发生的犯罪 。
技术的介入甚至可能给原本艰难的环境带来新的问题 , 并不是初衷是好的就一定会有好的结果 。 毕竟有时候 , 通往地狱的道路往往由善意铺就 。