苹果公司周四对其去年放弃检测iCloud照片中存储的已知儿童性虐待材料(CSAM)这一备受争议的计划做出了最全面的解释。苹果公司的声明是对儿童安全组织Heat Initiative要求该公司从iCloud中"检测、报告和删除"CSAM,并为用户向该公司报告此类内容提供更多工具的回应。
w$DHMpW'
@g5qcjD'[ 苹果公司用户隐私和儿童安全总监埃里克-诺伊恩施万德(Erik Neuenschwander)在公司给Heat Initiative的回复中写道:"儿童性虐待材料令人深恶痛绝,我们致力于打破使儿童易受其影响的胁迫和影响链。"不过,他补充说,在与一系列隐私和安全研究人员、数字权利组织和儿童安全倡导者合作后,公司得出结论,不能继续开发CSAM扫描机制,即使是专门为保护隐私而建立的机制。
|kGQ~:k+P *N&~Uq^ "扫描每个用户私人存储的iCloud数据将为数据窃贼创造新的威胁载体,让他们找到并加以利用,"Neuenschwander写道。"它还会带来意想不到的隐私滑坡后果。例如,扫描一种类型的内容,就为批量监控打开了大门,并可能使人们产生搜索其他加密信息系统中各种内容类型的欲望。"
sR4B/1'E 6Qk[TL)t 2021年8月,苹果公司宣布了三项新的儿童安全功能计划,包括检测iCloud照片中存储的已知CSAM图像的系统、在"信息"应用中模糊性暴露照片的"通信安全"选项,以及Siri的儿童剥削资源。通信安全"于2021年12月随iOS 15.2在美国推出,随后扩展到英国、加拿大、澳大利亚和新西兰,Siri资源也已可用,但CSAM检测功能最终没有推出。
6E-AfY'< dSI<s^n 苹果最初表示,CSAM检测将于2021年底在iOS 15和iPadOS 15的更新中实现,但该公司根据"客户、宣传团体、研究人员和其他方面的反馈"推迟了该功能。这些计划遭到了众多个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政客、政策团体、大学研究人员甚至一些苹果员工。
+^DDWVp }n( ?| 英国政府正在考虑修改监控立法,要求科技公司在不告知公众的情况下禁用端到端加密等安全功能。
o1?S* jx{wOb~oO) 苹果公司表示,如果该立法以目前的形式获得通过,它将在英国取消FaceTime和iMessage等服务。
#:NY9.\o