iOS 15下线防色情功能

果粉之家 , 专业苹果手机技术研究十年!您身边的苹果专家~
早在今年8月份 , 苹果就对外官宣 ,。
iOS 15下线防色情功能
文章图片
简单点说 , 苹果将对用户保存到iPhone上的照片、通过iMessage发布的照片以及上传到iCloud的图片进行审核 , 从而识别儿童色情和虐待内容(CSAM) , 打击其传播 。
iOS 15下线防色情功能】比如在iCloud家庭中 , 如果孩子在iMessages信息上收到色情图片时 , 图片会隐藏起来 , 并且Messages会警告用户该图片是“少儿不宜”的敏感图片 。 如果孩子执意查看这张图片 , 那么iCloud家庭中的父母将受到通知 , 弹出窗口还将包含一个含有帮助信息的链接 。
iOS 15下线防色情功能
文章图片
针对CSAM(儿童性虐待照片)检测新功能引起的争议 , 苹果也明确表示称:
iOS 15下线防色情功能
文章图片
但随后在9月份 , 苹果宣布将推迟上线其CSAM儿童保护功能 , 并且决定在未来几个月花更多时间收集iPhone用户意见并进行改进 , 然后再发布这些至关重要的儿童安全功能 。
转眼已经到了12月份 , 日前有用户发现 , 由此可见 , 在征求了用户的意见之后 , 大部分用户对这个功能还是比较不认可的 , 因此苹果已经从iOS15系统中移除的这一功能 。
iOS 15下线防色情功能
文章图片
这也意味着苹果短之间内 , 至少在iOS15系统中将不会再加入这个新功能 , 用户也无需担心苹果会扫描相册导致隐私泄露了 。
有果粉的地方就有果粉之家 , 学习苹果使用技巧 , 了解最新苹果资讯请关注:果粉之家!