论坛风格切换
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
购买邀请后未收到邀请联系sdbeta@qq.com
  • 395阅读
  • 0回复

[业界新闻]苹果公司进一步澄清为何放弃在iCloud照片中检测CSAM的计划 [复制链接]

上一主题 下一主题
 

发帖
7811
今日发帖
最后登录
2025-03-10
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-09-02 15:27:46
  苹果公司周四对其去年放弃检测iCloud照片中存储的已知儿童性虐待材料(CSAM)这一备受争议的计划做出了最全面的解释。苹果公司的声明是对儿童安全组织Heat Initiative要求该公司从iCloud中"检测、报告和删除"CSAM,并为用户向该公司报告此类内容提供更多工具的回应。 w$DHMpW'  
@g5qcjD'[  
  苹果公司用户隐私和儿童安全总监埃里克-诺伊恩施万德(Erik Neuenschwander)在公司给Heat Initiative的回复中写道:"儿童性虐待材料令人深恶痛绝,我们致力于打破使儿童易受其影响的胁迫和影响链。"不过,他补充说,在与一系列隐私和安全研究人员、数字权利组织和儿童安全倡导者合作后,公司得出结论,不能继续开发CSAM扫描机制,即使是专门为保护隐私而建立的机制。 |kGQ~:k+P  
*N&~Uq^  
  "扫描每个用户私人存储的iCloud数据将为数据窃贼创造新的威胁载体,让他们找到并加以利用,"Neuenschwander写道。"它还会带来意想不到的隐私滑坡后果。例如,扫描一种类型的内容,就为批量监控打开了大门,并可能使人们产生搜索其他加密信息系统中各种内容类型的欲望。" sR4B/1'E  
6Qk[TL)t  
  2021年8月,苹果公司宣布了三项新的儿童安全功能计划,包括检测iCloud照片中存储的已知CSAM图像的系统、在"信息"应用中模糊性暴露照片的"通信安全"选项,以及Siri的儿童剥削资源。通信安全"于2021年12月随iOS 15.2在美国推出,随后扩展到英国、加拿大、澳大利亚和新西兰,Siri资源也已可用,但CSAM检测功能最终没有推出。 6E-AfY'<  
dSI<s^n  
  苹果最初表示,CSAM检测将于2021年底在iOS 15和iPadOS 15的更新中实现,但该公司根据"客户、宣传团体、研究人员和其他方面的反馈"推迟了该功能。这些计划遭到了众多个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政客、政策团体、大学研究人员甚至一些苹果员工。 +^DDWVp  
}n( ?|  
  英国政府正在考虑修改监控立法,要求科技公司在不告知公众的情况下禁用端到端加密等安全功能。 o1?S*  
jx{wOb~oO)  
  苹果公司表示,如果该立法以目前的形式获得通过,它将在英国取消FaceTime和iMessage等服务。 #:NY9.\o