Apple 将审查 iCloud 相册和 iMessages 应用

作为扩大儿童安全计划的一部分,苹果公司将会添加旨在审查 Messages 应用程序和 iCloud 相册的功能。

苹果公司审查的目标是色情内容, Messages 将会为儿童用户接触的色情图片做模糊处理并通知他们的父母,但这不会使苹果公司获知消息内容本身。

与此同时,苹果公司会审查任何上传到 iCloud 相册中的内容是否与儿童色情(CSAM)有关。在上传相册前,Apple 会针对该图像与内嵌在系统中的一个已知CSAM(儿童色情)哈希值集进行匹配。

如果配对成功,设备就会创建一个加密安全凭证,该凭证与图像一起被上传到 iCloud Photos,一旦配对数量达到一定阈值,苹果就能解密该内容。苹果公司还采用了名为“神经网络哈希算法”的技术,使简单的裁剪修改无法规避苹果的检测。

苹果公司解释说,利用另一项称为阈值秘密共享的技术,该系统确保安全凭证的内容不能被苹果公司解密,除非 iCloud 照片账户跨越已知CSAM内容的阈值。该阈值的设置是为了提供极高的准确性,并确保每年错误标记一个特定账户的几率小于一万亿分之一。

这些被检测到的图像最终会经过人工审查,以确认是否存在匹配。此后苹果公司将会封禁用户 iCloud 账户,并向 NCMEC 发送一份报告,并与美国各地的执法机构合作。

这项功能将在 iOS 15, iPadOS 15, watchOS 8 和 macOS Monterey 的更新中推出,并首先在美国施行。

参考资料

Expanded Protections for Children(Apple)

宝塔面板新版强制用户绑定宝塔账号

昨日有用户发现新的7.4.5版本的宝塔面板登录时被要求绑定宝塔官网账号,否则就无法继续使用面板。宝塔官方团队论坛回应称此举是为了“使用面板时方便很多,有什么安全提醒也可以第一时间发短信”。

但是宝塔面板的回应显得有些遮遮掩掩,况且这一行为剥夺了用户的选择权,有用户担心此举会泄露隐私,等同于实名制。以安全之名作恶者古往今来不在少数,宝塔面板是一个广受欢迎的工具,这个工具应当要找准自己的位置。

分析认为这可能和此前数据库漏洞有关,亦有人认为宝塔面板是获得了某些部门的授意,此间种种利害实在不能言表。