用户|苹果扫描用户图片:正义的特例,还是魔盒的开启?( 二 )
此前苹果曾经表示,这项扫描功能只会先在美国推出,在其他国家会在未来视情况推出。费德里希进一步解释,这个CSAM数据库是包括在iOS和iPadOS的系统升级中,只是在美国市场激活;“我们在中国、欧洲和美国的设备都使用同样的软件,包括同样的数据库。”
儿童色情不属隐私【 用户|苹果扫描用户图片:正义的特例,还是魔盒的开启?】最注重用户隐私的苹果为什么要公开宣布扫描用户本地照片?用户存在iPhone和iPad的照片,是否完全属于用户隐私?互联网公司是否要为此类违法内容负责?
美国1996年《联邦通信规范法》230条款规定,“任何交互式计算机服务的提供商或者用户不应被视为另一信息内容提供商提供的任何信息的发布者和发言人。”这一条款又被视为互联网公司的免责保护伞。
这个条款实际上包括两个意思:互联网公司无须为平台上的第三方信息负责,用户在平台发布的内容与平台无关;互联网公司无须为他们善意删除平台内容的行为负责,他们有权根据审核标准删除用户发布的内容。
但是这把保护伞也并不是没有边界的。2018年美国国会通过《打击性贩卖行为法》,明确规定互联网公司有责任举报和移除网络平台上的此类违法内容,否则将会面临相关法律的处罚;其中明确包括了儿童色情内容。这是230免责条款的第一个豁口。
根据这一法律,如果用户开通了iCloud图片上传,存在本地设备的图片连上了互联网,那么苹果作为互联网平台,就有责任和权力举报和处理此类违法内容。而大多数iPhone用户,iCloud上传功能是默认开启的。
实际上,美国各大互联网企业早就扫描用户图片库,识别儿童色情相关内容。Facebook、Twitter、Reddit都会对用户存在自己平台的内容进行比对扫描,无论是否公开发布。和苹果一样,他们也是通过NCMEC的数据库进行比对,发现违规之后进行报警。
更为重要的是,儿童色情内容并不属于美国宪法第一修正案关于言论自由权利的保护范围。用户持有儿童色情图片本就是违法行为,无论传播与否。美国《打击儿童性剥削法》和《打击贩卖儿童法》都明确规定,生成、分发、接受和持有此类内容都属于联邦重罪,会面临着至少5年,至多30年监禁的严厉惩罚。
在欧洲,这方面的互联网监管措施甚至更早。早在2013年,英国就已经制定监管细则,要求从互联网服务提供商(ISP)这里屏蔽色情内容,用户必须自己手动关闭过滤内容,才能访问色情网站。同一时期,英国政府还要求谷歌微软等搜索服务商移除儿童色情搜索结果。不过,儿童色情图片原本就很少出现在搜索结果中。
不会扫描其他内容即便美国互联网企业早就开始打击儿童色情内容,但苹果宣布扫描用户图片依然引发了诸多质疑。苹果向美国媒体确认,此前也曾经对iCloud Mail内容进行此类内容的扫描,但却从未扫描过用户的iCloud Photos图片数据。网络信息安全专家泰特(Matt Tait)指出,儿童色情图片本来就是美国执法部门打击的高压线,执法部门很容易获得传票,要求苹果扫描用户iCloud图片库,苹果也会愿意配合这一要求。
苹果所做的,和其他互联网公司有什么不同?其他互联网公司是扫描用户上传在云端服务器的内容,而此次苹果则是在用户本地进行扫描(前提是开启iCloud同步)。为什么苹果会选择在本地进行扫描?
苹果高级副总裁费德里希强调,这项扫描机制将在设备本地进行,而不是联网进行比对,目前只面向美国市场。“如果有人在云端扫描图片,那谁知道会扫描什么内容(意思是可能会失控)。在我们这项功能里面,NCMEC的数据库是传输到本地的。”
- 苹果|库克压力确实大,在众多国产厂家对标下,iPhone13迎来“真香价”!
- 苹果|iPhone 14普及高刷:全系支持120Hz
- 苹果|国内首款支持苹果HomeKit的智能门锁发布:iPhone一碰即开门
- 小米科技|预算只有两三千买这三款,颜值性能卓越,没有超高预算的用户看看
- 苹果|苹果最巅峰产品就是8,之后的产品,多少都有出现问题
- 苹果|最具性价比的苹果手机来了,降价2120元,iPhone12已跌至冰点价
- 苹果|马化腾称,腾讯只是一家普通公司,这是谦虚说法还是有所顾虑?
- 为了你的iPhone能磁吸充电,苹果又花了5亿买材料
- 蓝思科技|苹果与34家中国供应商断绝合作,央视呼吁:尽快摆脱对苹果依赖
- 造车|苹果造车一波三折,缺了一家“富士康”