whatsapp客户不回消息
此前苹果公司宣布了儿童安全功能计划,计划刚公布,市场就一片哗然。因为潜在的安全漏洞很容易把用户的隐私也泄露出去。
苹果公司软件工程高级副总裁Craig Federighi在接受《华尔街日报》的采访时承认,苹果近期宣布的这两项新功能时处理得不好,这两项功能涉及检测儿童信息中的明确内容和存储在iCloud照片库中的CSAM内容,并承认围绕这些工具存在广泛的混淆。
也就是说,苹果意识到存在着一些认知的混淆,但或许不仅仅如此。苹果推出的通信安全功能意味着,如果儿童通过iMessage发送或接收露骨的图像,他们在查看之前会得到警告,图像会被模糊,并且会有一个选项让他们的父母得到提醒whatsapp客户不回消息。
这是保护儿童,也会第一时间告知其父母。也就是说,苹果要一直检测到用户的iMessage才可以。此外,CSAM扫描则试图在上传到iCloud之前,将用户的照片与已知CSAM的散列图像进行匹配。检测到CSAM的账户将接受苹果公司的人工审查,并可能被报告给美国国家失踪和被剥削儿童中心(NCMEC)。也就是也要时刻检测这些数据的传输。
这个功能公布之后,受到了包括用户、安全研究人员、电子前沿基金会(EFF)和爱德华斯诺登的大量批评,甚至还有苹果员工也批评了该功能。
对此,苹果高管的解释是,用户需要在其照片库中满足约30个CSAM内容的匹配,苹果才会被提醒,届时它将确认这些图像是否是CSAM的真实实例。
不过,专家们显然是不认可的。专家们一再警告,问题不仅仅是隐私,还有缺乏责任感,扩展的技术障碍,以及对潜在的错误和误报缺乏分析等。哈佛大学法学院网络法律诊所(Cyberlaw Clinic)的律师肯德拉·阿尔伯特(Kendra Albert)警告说,这些“儿童保护”功能会让同性恋孩子被赶出家门,遭到殴打,甚至发生更糟的情况。
此外,我们也关注到,Epic CEO Sweeney在Twitter上也表达了自己的意见,他表示,“我努力从苹果的角度来看待这件事,但不可避免的是,这是苹果基于有罪推定而安装的政府系统软件。虽然代码是苹果写的,但其功能是扫描个人数据并报告给政府。这跟公共论坛或社交媒体上的内容审核系统完全不同。运营商选择公开托管数据之前,他们可以扫描它以寻找任何他们不想托管的数据。但这是人们的私人数据。”
其还表示,“苹果现在很可能在任何有需要的地方都将成为国家监控的一个分支”。宣扬民主自由的政府,当软件商可以给其提供更多的数字资料进行研判时,对于用户个人信息自由和隐私保护的环节自然会受到更多人的关注。
专家建议苹果公司,立即停止部署对其拟议中的内容监控技术;并督促苹果公司重申他们对端到端加密和用户隐私的承诺;而且表示,苹果目前的做法可能会破坏技术专家、学者和政策倡导者数十年来的努力,即强有力的隐私保护措施是大多数消费电子设备和使用案例的常态。
更糟糕的是,苹果表示通过向第三方扩展儿童安全功能,以便用户得到更广泛的保护。Apple 没有提供任何具体示例,但一种可能性是通信安全功能可用于Snapchat、Instagram或 WhatsApp等应用程序,以便模糊儿童收到的色情照片。另一种可能是,苹果已知的 CSAM 检测系统可以扩展到第三方应用程序,这些应用程序将照片上传到 iCloud 照片以外的其他地方。虽然,苹果表示需要确保任何潜在的扩展不会破坏隐私属性或功能的有效性。但这种防控难度显然是非常大的,不可控的风险会陡增,这显然是苹果难以掌控的。