苹果关于儿童安全全新保护措施,iOS15全面上线?
苹果正式宣布了一系列全新的儿童安全保护措施,包括iMessage短信提醒、iCloud照片扫描等。并计划在正式发布后推出iOS15。
新系统将使用一种称为“哈希”的过程,通过哈希算法将任何长度的输入转换为固定长度的输出,以监控所谓的“儿童性虐待材料”(“CSAM”)图片,然后将图片转换为与之对应的唯一数字。
苹果周四开始测试该系统,但该公司表示,在今年晚些时候iOS15更新之前,美国大多数iPhone用户将无法使用该系统。在苹果采取这一措施之前,其他云服务也采取了类似的措施,扫描用户文件(通常使用“哈希”系统),查找违反其服务条款的内容,包括儿童性虐待的图片。
这也将是对苹果的考验。苹果表示,与之前消除儿童性侵非法图片的方法相比,该公司的系统对用户来说更加私密,因为它在苹果的服务器和用户设备上使用复杂的密码系统,不会扫描实际图片,只会扫描“哈希”。然而,对于许多对隐私问题敏感的用户来说,他们仍然不希望看到他们使用的软件将设备或云服务的内容告知政府,因此他们可能会对苹果的举动做出负面反应。——特别是因为苹果一直直言捍卫设备加密,在该公司开展业务的国家,语音保护不如美国。
世界各地的执法官员也向苹果施压,要求苹果削弱iMessage和iCloud等其他软件服务的加密,以便调查儿童性虐待或恐怖主义。对苹果来说,周四的举动表明,该公司希望找到一种方法来解决其中一些问题,而不放弃一些关于用户隐私的工程原则。
系统的运行
在图片存储在苹果的iCloud服务中之前,该公司会将图片的“哈希”与国家失踪和受虐待儿童中心(NCMEC)提供的哈希数据库进行比较。苹果表示,该数据库将在公司发布iOS15更新时启用,并将以iOS代码的形式发布。匹配过程将在用户的iPhone上完成,而不是在云中。
如果苹果随后在一个iCloud账号中检测到一定数量的非法文件,系统会上传一个文件,让苹果解密并查看账号上的图片,然后手动查看图片确认是否匹配。苹果只会审查与已知内容匹配的图片,并向这些数据库报告。例如,公司将无法检测洗澡儿童父母的照片,因为这些照片不会进入NCMEC数据库。
如果人工审核负责人得出系统没有错误的结论优艾设计网_Photoshop交流,苹果将禁用上传非法图片用户的iCloud账号,必要时向NCMEC发送报告或通知执法部门。苹果公司的一位代表表示,如果用户认为自己的账户被错误标记,可以向公司申诉。
苹果表示,该系统仅适用于上传到iCloud服务的图片(用户可以选择关闭系统),不适用于未上传到公司服务器的照片或其他图片。
的隐私保护
一些安全研究人员担心这项技术最终可能会被用来识别其他类型的图片。苹果表示,其系统仅适用于NCMEC或其他儿童安全组织编目的图片,公司构建密码系统的方式可以防止其被用于其他目的。
苹果表示,它无法向数据库添加额外的“哈希”。该公司表示,它正在向密码学家展示该系统,以证明它可以检测儿童性虐待的非法图片,而不会损害用户的隐私。
在周四发布该功能的同时,苹果还发布了其他旨在保护儿童免受性剥削者侵害的功能。其中一个功能是,苹果将利用机器学习技术,在有家庭账号的孩子的iPhone上模糊可能包含裸体的图片,而当13岁以下的孩子收到iMessage中的骚扰内容时,家长可以选择报警功能接收报警。此外,苹果还更新了Siri,提供如何举报儿童性虐待的信息。
精彩评论