谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门( 二 )


无独有偶,马克账户被禁用的第二天,德克萨斯州上演了同样的戏码 。
另一位孩子爹根据儿科医生的要求,用安卓手机拍了自家宝贝“内脏部位”感染处的照片,照片自动备份到了谷歌云,而后他又用谷歌聊天把照片传给了孩子妈 。
结果惊人的相似,他的Gmail账户同样被禁用 。因为没有电子邮件地址,他差点没法买房 。
谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门
文章图片

休斯顿警方邀请他到警局喝杯咖啡,在出示和儿科医生的聊天记录后,他很快被放出警局 。
警察认为他无罪,谷歌却不这么认为 。尽管他是用了10年付费账户的老谷歌用户了,账号还是找不回来 。
现在,这位孩子爹不得不用Hotmail地址发送电子邮件,并被朋友们无情嘲笑 。
AI标记儿童性虐待,每年数百万次
【谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门】2021年,谷歌提交了超过62万份涉嫌虐待儿童的报告,禁用了超过27万名用户的账户,提醒当局发现了4260名潜在的儿童性虐待受害者 。
当然,其中包括了上文被冤枉的两位奶爸 。
谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门
文章图片

收集大量数据的科技巨头们会充当把关哨兵,检查内容,以监测和预防犯罪行为 。每年,它们会标记儿童被剥削或性虐待的图像数百万次 。
但内容检查可能需要窥视私人档案,比如偷看你的电子相册 。两位奶爸就是没有料到这一遭,才让“求医心切”在谷歌那儿变成了“儿童性虐待” 。
把关的时候,科技巨头们一般会用两种工具:
一种是微软2009年发布的PhotoDNA 。
谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门
文章图片

△PhotoDNA工作原理
它建立了一个虐童照片数据库,把每个人电子相册的照片和数据库里的照片对比,就算照片有细微不同,也能找出传播虐童图像的用户 。
包括Facebook、Twitter和Reddit在内,都使用PhotoDNA 。
另一种是2018年,谷歌发布的开发者工具包Content Safety API 。
它使用深度神经网络来处理图像,让审查员在相同时长内,处理的虐童图像内容增加了700% 。
谷歌自己使用这个AI工具包,也开源给Facebook等使用 。
谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门
文章图片

这个AI工具包的大致审查流程是这样的:
两位奶爸的照片自动备份到谷歌云,并被标记人工审核↓人工审核,确认这些照片符合对虐童图像的定义↓锁定用户账户,继续搜索账户中其他虐童图像(马克还有一张晨起全家赖床的照片,因衣衫不整,又又又被标记了)↓向国家失踪和受虐儿童中心(NCMEC)的CyberTipline报告
不得不说,谷歌AI工具包在识别图像内容方面展现出了惊人能力,CyberTipline2021年每天收到约8万份报告,由40名分析师审核,以便NCMEC能进一步报告给警方 。
CyberTipline主管说,这是“系统正常工作” 。
但这无疑是双刃剑,毕竟如果情节被判严重,哪怕父母是无辜的,也可能失去孩子的监护权 。
谷歌|私人相册照片被谷歌AI举报:全网封杀、喊冤无门
文章图片

虽然上文提到的两位奶爸都是用安卓拍照遭的殃,但苹果用户别高兴得太早 。