早些时候|苹果将在iOS 15正式版全面上线新的儿童安全保护措施

早些时候 , 苹果公司公布了新的儿童安全功能 , 为了扩大对儿童的保护 。 这些功能将于今年晚些时候在iOS15、iPadOS15、watchOS8和macOSMonterey的更新中推出 。
苹果公司表示 , 保护儿童是一项重要责任 。 这些努力将随着时间的推移而发展和扩大 。 苹果将使用新的密码学应用程序来帮助限制“儿童性虐待内容”(ChildSexualAbuseMaterial , 简称为“CSAM”)在线传播 , 同时为用户隐私进行设计 。 CSAM检测将帮助Apple向执法部门提供有关iCloud照片中CSAM集合的宝贵信息 。
早些时候|苹果将在iOS 15正式版全面上线新的儿童安全保护措施
文章图片
消息中的通信安全
首先 , iPhone、iPad和Mac上的Messages应用程序将获得一项新的通信安全功能以在收到或发送色情照片时 , Messages应用程序将使用设备上的机器学习来分析图像附件 , 如果照片被确定为色情内容 , 照片会被模糊处理 , 并且会警告儿童及其父母 。
作为额外的预防措施 , 当儿童确实看到了消息 , 他们的父母会收到一条消息 。 如果儿童试图发送露骨的色情照片 , 则可以使用类似的保护措施 。 照片发送前孩子会收到警告 , 如果孩子选择发送 , 父母可以收到消息 。
此功能将于今年晚些时候针对在iOS15、iPadOS15和macOSMonterey的iCloud中设置为家庭的帐户进行更新 。
CSAM检测
为了帮助解决CSAM在线传播这个问题 , 苹果公司将能够检测存储在iCloud照片中已知的CSAM图像 , 从而使苹果公司能够将这些情况报告给国家失踪和受虐儿童中心(NCMEC) 。
苹果方面表示 , 检测已知CSAM的方法在设计时考虑了用户隐私 。 该系统不是在云中扫描图像 , 而是使用NCMEC和其他儿童安全组织提供的已知CSAM图像哈希数据库执行设备上匹配 。 进一步将此数据库转换为一组不可读的哈希值 , 并安全地存储在用户的设备上 。
早些时候|苹果将在iOS 15正式版全面上线新的儿童安全保护措施
文章图片
扩展Siri和搜索中的指导
苹果公司还将通过提供更多资源来帮助儿童和父母保持在线安全并在不安全的情况下获得帮助 , 从而扩展Siri和搜索的指导 。 例如 , 询问Siri如何报告CSAM或儿童剥削的用户将被指向有关在何处以及如何提交报告的资源 。
早些时候|苹果将在iOS 15正式版全面上线新的儿童安全保护措施
文章图片
Siri和Search也正在更新 , 以便在用户在搜索与CSAM相关的内容时进行干预 。 这些干预措施将向用户解释对该主题的兴趣是有害的和有问题的 。
Siri和Search的这些更新也将于今年晚些时候在iOS15、iPadOS15、watchOS8和macOSMonterey的更新中推出 。
早些时候|苹果将在iOS 15正式版全面上线新的儿童安全保护措施】来源:互联网深度洞察