SShiroSora
2021-07-28T03:14:21+00:00
[url]https://www.ft.com/content/14440f81-d405-452f-97e2-a81458f5411f[/url]
据了解其计划的人士称,苹果公司打算在美国的iPhone上安装软件,以扫描虐待儿童的图像,这引起了安全研究人员的警惕,他们警告说,这可能为监控数百万人的个人设备打开大门。
据两位了解虚拟会议情况的安全研究人员称,苹果公司本周早些时候向一些美国学者详细介绍了其拟议的系统--被称为 "神经匹配"。
如果它认为检测到非法图像,该自动化系统将主动提醒一个人类审查员团队,如果该材料可以被核实,他们将联系执法部门。该计划最初将只在美国推出。
苹果公司在一篇博文中确认了其计划,称扫描技术是新的儿童保护系统套件的一部分,将 "随着时间的推移不断发展和扩大"。这些功能将作为iOS 15的一部分推出,预计将在下个月发布。
"该公司说:"这项创新的新技术使苹果公司能够向国家失踪与被剥削儿童中心和执法部门提供关于已知CSAM[儿童**待材料]扩散的宝贵和可操作的信息。
"而且它在这样做的同时,比现有技术提供了显著的隐私优势,因为苹果公司只在用户的iCloud照片账户中有已知的CSAM收集时才会了解他们的照片。"
这些建议是苹果公司试图在其保护客户隐私的承诺与政府、执法机构和儿童安全运动者要求在刑事调查(包括恐怖主义和儿童色情制品)中提供更多协助之间找到一个折中点。
苹果和Facebook等科技公司为其在产品和服务中越来越多地使用加密技术进行辩护,而自从2016年iPhone制造商在加州圣贝纳迪诺发生枪击案后与联邦调查局就获取一名恐怖嫌疑人的iPhone手机一事对簿公堂以来,两者之间的紧张关系更加激烈。
安全研究人员虽然支持打击虐待儿童的努力,但他们担心苹果有可能使世界各地的政府寻求获取其公民的个人数据,这可能远远超出其最初的意图。
"剑桥大学安全工程教授罗斯-安德森说:"这是一个绝对令人震惊的想法,因为它将导致对......我们的手机和笔记本电脑的分布式批量监控。
研究人员说,尽管该系统目前是为发现儿童性虐待而训练的,但它可以被调整为扫描任何其他目标图像和文本,例如恐怖活动中的斩首或抗议活动中的反政府标志。苹果公司的先例也可能增加对其他科技公司使用类似技术的压力。
约翰霍普金斯大学(Johns Hopkins University)的安全教授马修-格林(Matthew Green)说:"这将打破大坝--政府会要求每个人都这样做。"他被认为是第一个发布有关这一问题的推特的研究人员。
曾在Facebook和Deliveroo工作过的安全研究员和隐私活动家Alec Muffett说,苹果的举动是 "构造性的",是 "个人隐私的巨大和倒退的一步"。
"他说:"苹果公司是为了实现1984年的隐私而退步。
基于云的照片存储系统和社交网站已经扫描了虐待儿童的图像,但当试图访问存储在个人设备上的数据时,这个过程变得更加复杂。
萨里大学(University of Surrey)的计算机安全教授艾伦-伍德沃德(Alan Woodward)说,苹果公司的系统不那么具有侵略性,因为筛查是在手机上进行的,"只有在有匹配的情况下才会向搜索者发送通知"。"如果你真的走这条路,这种分散的方法是你可以采用的最好的方法。"
苹果公司的neuralMatch算法将持续扫描存储在美国用户iPhone上的照片,这些照片也已被上传到其iCloud备份系统。用户的照片通过一个被称为 "散列 "的过程转化为一串数字,将与已知的儿童**待图像数据库中的照片进行比较。
该系统已经在国家儿童保护中心收集的20万张性虐待图像上进行了训练。
据了解该计划的人说,在美国,上传到iCloud的每张照片都将被赋予一个 "安全凭证",说明它是否有嫌疑。一旦一定数量的照片被标记为可疑,苹果将使所有可疑的照片被解密,如果显然是非法的,将被传递给相关部门。
霍普金斯大学教授 Matthew Green 称其从多个独立消息源得知,Apple 将于明天发布客户端 CSAM* 扫描工具。
这种工具的工作方式通常是扫描本地的所有文件,生成其哈希值,并且与云端提供的名单比对。
欧盟之前也通过了法案,以'打击儿童色情'的名义给服务商开了扫描用户数据的口子;这次透露出的动作如果确实发生,也就代表着科技企业在对用户隐私的擢取上又迈进了一大步,而且还是打着正义的旗号。
据了解其计划的人士称,苹果公司打算在美国的iPhone上安装软件,以扫描虐待儿童的图像,这引起了安全研究人员的警惕,他们警告说,这可能为监控数百万人的个人设备打开大门。
据两位了解虚拟会议情况的安全研究人员称,苹果公司本周早些时候向一些美国学者详细介绍了其拟议的系统--被称为 "神经匹配"。
如果它认为检测到非法图像,该自动化系统将主动提醒一个人类审查员团队,如果该材料可以被核实,他们将联系执法部门。该计划最初将只在美国推出。
苹果公司在一篇博文中确认了其计划,称扫描技术是新的儿童保护系统套件的一部分,将 "随着时间的推移不断发展和扩大"。这些功能将作为iOS 15的一部分推出,预计将在下个月发布。
"该公司说:"这项创新的新技术使苹果公司能够向国家失踪与被剥削儿童中心和执法部门提供关于已知CSAM[儿童**待材料]扩散的宝贵和可操作的信息。
"而且它在这样做的同时,比现有技术提供了显著的隐私优势,因为苹果公司只在用户的iCloud照片账户中有已知的CSAM收集时才会了解他们的照片。"
这些建议是苹果公司试图在其保护客户隐私的承诺与政府、执法机构和儿童安全运动者要求在刑事调查(包括恐怖主义和儿童色情制品)中提供更多协助之间找到一个折中点。
苹果和Facebook等科技公司为其在产品和服务中越来越多地使用加密技术进行辩护,而自从2016年iPhone制造商在加州圣贝纳迪诺发生枪击案后与联邦调查局就获取一名恐怖嫌疑人的iPhone手机一事对簿公堂以来,两者之间的紧张关系更加激烈。
安全研究人员虽然支持打击虐待儿童的努力,但他们担心苹果有可能使世界各地的政府寻求获取其公民的个人数据,这可能远远超出其最初的意图。
"剑桥大学安全工程教授罗斯-安德森说:"这是一个绝对令人震惊的想法,因为它将导致对......我们的手机和笔记本电脑的分布式批量监控。
研究人员说,尽管该系统目前是为发现儿童性虐待而训练的,但它可以被调整为扫描任何其他目标图像和文本,例如恐怖活动中的斩首或抗议活动中的反政府标志。苹果公司的先例也可能增加对其他科技公司使用类似技术的压力。
约翰霍普金斯大学(Johns Hopkins University)的安全教授马修-格林(Matthew Green)说:"这将打破大坝--政府会要求每个人都这样做。"他被认为是第一个发布有关这一问题的推特的研究人员。
曾在Facebook和Deliveroo工作过的安全研究员和隐私活动家Alec Muffett说,苹果的举动是 "构造性的",是 "个人隐私的巨大和倒退的一步"。
"他说:"苹果公司是为了实现1984年的隐私而退步。
基于云的照片存储系统和社交网站已经扫描了虐待儿童的图像,但当试图访问存储在个人设备上的数据时,这个过程变得更加复杂。
萨里大学(University of Surrey)的计算机安全教授艾伦-伍德沃德(Alan Woodward)说,苹果公司的系统不那么具有侵略性,因为筛查是在手机上进行的,"只有在有匹配的情况下才会向搜索者发送通知"。"如果你真的走这条路,这种分散的方法是你可以采用的最好的方法。"
苹果公司的neuralMatch算法将持续扫描存储在美国用户iPhone上的照片,这些照片也已被上传到其iCloud备份系统。用户的照片通过一个被称为 "散列 "的过程转化为一串数字,将与已知的儿童**待图像数据库中的照片进行比较。
该系统已经在国家儿童保护中心收集的20万张性虐待图像上进行了训练。
据了解该计划的人说,在美国,上传到iCloud的每张照片都将被赋予一个 "安全凭证",说明它是否有嫌疑。一旦一定数量的照片被标记为可疑,苹果将使所有可疑的照片被解密,如果显然是非法的,将被传递给相关部门。
霍普金斯大学教授 Matthew Green 称其从多个独立消息源得知,Apple 将于明天发布客户端 CSAM* 扫描工具。
这种工具的工作方式通常是扫描本地的所有文件,生成其哈希值,并且与云端提供的名单比对。
欧盟之前也通过了法案,以'打击儿童色情'的名义给服务商开了扫描用户数据的口子;这次透露出的动作如果确实发生,也就代表着科技企业在对用户隐私的擢取上又迈进了一大步,而且还是打着正义的旗号。