儿童|电子前线基金会:希望苹果完全放弃 CSAM 儿童保护功能

IT之家 9 月 6 日消息 因遭到大量用户以及部分国家和地区反对,苹果近日宣布暂缓推出 CSAM 儿童性虐待照片扫描功能,表示公司会在未来的几个月收集意见,并改进这项功能。据外媒 Wccftech 消息,电子前沿基金会 EFF 于 9 月 3 日发表文章,表示苹果 CSAM 检测功能会给 iPhone 用户的隐私和安全造成威胁。
儿童|电子前线基金会:希望苹果完全放弃 CSAM 儿童保护功能
文章插图

▲ 图片来自电子前沿基金会
【 儿童|电子前线基金会:希望苹果完全放弃 CSAM 儿童保护功能】EFF 对苹果暂缓推出该功能、倾听意见的做法表示高兴,但是希望该公司能够更进一步,不仅仅是倾听意见,而是完全放弃这项计划。该基金会表示,这一功能的推出,还有可能将原本遭受伤害的儿童置于更大的危险之中。
官方表示,全球有 90 多个组织向苹果呼吁,不要实施 CSAM 计划。上周,EFF 向苹果发出请愿书,已经收集到了超过 2.5 万个签名。
IT之家了解到,今年 8 月德国有关部门给苹果 CEO 库克,希望苹果重新考虑其 CSAM 计划。苹果公司对这一功能解释称,不会扫描分析每个 iPhone 上的照片,而只是对 iCloud 上的照片特征数据比对。自从苹果公司发表暂缓推出 CSAM 的声明之后,截至发稿还没有更新的回应,该功能是否会正式推出,还是未知数。