美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶

美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶

文章图片

【美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶】美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶

文章图片

美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶

文章图片

美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶

文章图片

美团|一张照片差点毁掉一个父亲,科技公司别再打着善意的旗号作恶

上着班聊着天 ,Mark 突然就被警察找上门了 。
因为他的手机被发现有一张手机里含有儿童性器官的照片 , 于是 Mark 被怀疑是一个针对儿童下手的性犯罪者 。 而且警方发现 , 这张照片居然来自 Mark 的儿子……
一个变态的恋童癖形象大概已经开始在你脑海里构建起来 。
先别急着愤怒 , 事情很快出现了反转 。 原来这张照片是 Mark 儿子生病后 , 为了让医生了解病情而拍摄的 , 而且 Mark 也从未公开发布过这张照片 。
那么警方是如何得知的呢 , 是 Google 的 AI 系统检测到了 Mark Android 手机里的照片 , 并判定他为犯罪嫌疑人 , 转而向警方举报 , 并禁用了他的 Google 账号 。
在美国 , Google 全家桶的普及程度大概相当于微信 , 也就是说 Google 这一番操作 , 直接让 Mark 从线上到线下全方位社死 。
更为可怕的是 , 和 Mark 一样被平台检测到异常顺便举报的人 , 远不止一个 。
孩子线上问诊的照片 , 让他被认定为罪犯 Mark 的孩子在学习走路时患上了腹股沟炎症 。 由于疫情严重 , 当时大部分人都在居家隔离 , Mark 只能选择线上问诊 , 提供孩子腹股沟的照片 , 试图帮医生更好地做出诊断 , 医生也根据描述的病情、展现的照片开出了处方 。
但就是这些照片出了问题 , Android 手机里的照片自动同步到了云端 , Google 系统将这些照片识别为了儿童性虐待内容 CSAM(Child Sexual Abuse Material) 。

在被识别后 , Mark 的网络使用瘫痪了一半 , 因为他被封了 。 Gmail , 用户用来登录其它平台的账户邮箱;Google Fi , 用户的移动虚拟运营商 , 打电话上网都用得上;Google Photos , 再也无法访问 , 里面有你家人的照片回忆……这些通通被封了 。 因为 Google 觉得你涉嫌儿童性犯罪 , 所以封了你的账户顺便「替你」报了警——平台封号后向国家失踪与被剥削儿童中心(NCMEC)提交了一份报告 , 这份报告引发了警方的调查 。
10 个月后 , 这位父亲收到了旧金山警局的通知 , 他们根据 Google 提供的照片报告对他进行了全方位的调查 。

为了更好调查潜在的儿童性犯罪嫌疑人 , 警方还向 Google 发出了搜查令 , 要求提供 Mark 所有账户信息 , 视频、照片、位置数据、互联网搜索报告等内容 。 对 Mark 来说 , 这真的是无妄之灾 , 要是警察调查大张旗鼓一些 , 恐怕连工作都没法做了 。
好在仔细调查后 , 警方确认了这位父亲并不存在任何针对儿童的性犯罪行为 。
这位父亲很清白 , 但 Google 很死板 。 即便是提供了经过警方证实的无罪报告 , 也无法让他成功向 Google 申诉找回账户 。 他曾经留在自己账户中的照片信息都已被完全锁定 , 无法再看到 。 能看到的只有 Google 的提醒——
你的账户因含有严重违反 Google 政策且可能非法的有害内容而被禁用 。

申请解封是没有用的 , 你只能换邮箱、换电话 , 在数字世界从头开始 。 《纽约时报》报道了这样两个普通用户 , 他们都为孩子网上问诊拍摄了儿童性器官相关的照片 , 从而被判定违规封号 , 直到今天都无法找回自己的账号 。