美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶( 二 )


他们甚至不是特例 。 2021 年 , Google 向 NCMEC 的 CyberTipLine(举报儿童性侵项目)报告了 621583 起案件 。 NCMEC 则向当地执法部门公告了 4260 名潜在受害者 , 请求警方协助调查 , 在这些孩子受到进一步伤害时解救他们 。
听上去是一个技术及时制止犯罪、预防犯罪的好故事 , 但当这个名单里包含和 Mark 孩子一样只是问诊的未成年时 , 就是「抓住一千 , 也错抓一个」的悲伤故事了 。

在所有技术侦查领域中 , 唯有儿童性犯罪例外 只是虽然有错抓 , Google 明显也不打算改 。 不仅不解封经过警方认证的清白用户账户 , 也不打算停止这个会有缺陷的审查机制 。
Google 发言人 Christa Muldoon 就表示:「我们遵循美国法律定义什么是 CSAM , 并使用哈希匹配技术和人工智能的组合来识别它 , 再从我们的平台上删除它 。 我们的儿童安全专家团队会审查标记内容准确性 , 还会咨询儿科医生确保我们能够识别用户可能寻求医疗建议的情况 。 」

问题在于 , Google 的审核团队并没有医学专业背景 , 在审查每个案例时也不一定都会咨询专业的儿科医生 。 所以错判在这个过程中可以说是难以避免的 , 唯一能够降低这种错判影响力的只有专业机构的判定和执法机构的二次审查 。
但对于被误判的人来说 , 这真的是无妄之灾 。 因为这种误判 , 你的重要账号被锁了;因为这个判断 , 你被警察调查了;因为这些错判 , 身边人看你可能也会戴上有色眼镜 。
电子前沿基金会 EFF 的技术项目主任 Jon Callas 对媒体表示 Google 的做法是有侵入性的 。 「这正是我们都担心的噩梦——他们要扫描我们的家庭相册 , 然后我们就会遇到麻烦 。 」

但这不是 Google 才会遇到的问题 , 因为几乎所有科技巨头在关乎 CSAM 内容时都有异常积极的行动 。 Amazon 和 Facebook 和 Google 一样有人工智能+人工的审核机制 , 发现有嫌疑的用户业余酌情删除或禁用 URL、图像、聊天功能 , 严重的封禁帐户 。 2021 年 , 亚马逊也向 NCMEC 提交了 33848 份 CSAM 报告 。 至于隐私问题 , 在这个技术打击犯罪的故事里似乎被忽略了 。
在捍卫用户隐私的故事中 , 苹果拒绝「协助解锁」的故事最让人印象深刻 。
当时美国福利机构内发生了一起严重的恐怖袭击枪击案 , 凶手在逃亡途中被击毙 。 警方在调查中发现凶手与中东「伊斯兰国」极端组织通过手机的加密通信进行联系 , 只是由于手机设有密码 , 法院也只能要求 iPhone 生产商苹果公司协助政府解锁 。
但苹果公开宣布拒绝遵行这道命令 , 理由是为了保护用户隐私:「如果政府动用《所有令状法案》让解锁 iPhone 变得更容易 , 它就有能力侵入任何人的设备并取得其数据 , 政府就可以延伸这种侵犯隐私的做法 。 」

但即便是在义正严辞拒绝过解锁用户 iPhone 的苹果在儿童性犯罪领域也不是没有动摇过 。 和 Google 一样 , 苹果也想过使用一种新工具扫描用户的 iCloud 照片 , 它会匹配 NCMEC已有的图像数据库 , 如果发现了足够多的相似图像就会移交给操作员进行检查 , 继而通知 NCMEC 。
苹果当时还计划推出一项新的 iMessage 功能 , 旨在「当(孩子)接收或发送色情照片时 , 提醒孩子和他们的父母」 。 13 岁以下的儿童接收或发送图像会向父母发出警告 , 而所有儿童用户在即将接收、发送被怀疑的色情图片时也会收到警告通知 。

这个变化趋势没过多久就被叫停了 , 因为反对的声浪实在太大 。 EFF 认为这个新变化可能「为你的私人生活打开后门……所有 iCloud 照片用户的隐私减少 , 而不是改善 。 」就连斯诺登也表示「不管本意有多好 , 今天可以扫描儿童色情内容 , 明天就可以扫描任何东西 。 」