8月5号,苹果美国官网表示,他们正在与儿童安全专家合作开发新的儿童安全功能,后续会在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出这个儿童保护功能。
这个儿童保护功能,主要是为了“CSAM检测”,CSAM 是指描述涉及儿童的色情活动的内容。
具体来说,这个功能,分为三个方面。
首选,Messages 应用程序将使用设备上的机器学习来警告敏感内容,也就是说,儿童的Messages应用会被苹果监测,如果发现孩子继续查看敏感照片,或者如果他们在被警告后仍选择将色情照片发送给其他人,iOS 就会通知父母。
其次,iOS 和 iPadOS还会限制CSAM的传播,苹果系统会扫描你的iCloud账户,如果发现儿童色情、虐待儿童的图片,就会直接向执法部门举报。
最后,如果用户利用搜索功能和Siri搜索儿童色情、虐待儿童的内容,Siri和搜索也会跳出来阻止。
引发网友不满的,主要是第二点,这意味着,苹果要扫描用户的iCloud相册,虽然是为了保护儿童,但我们的隐私也没有了。毕竟,当年的“棱镜门”事件还历历在目。
苹果,自然也是考虑到了这点,所以在发布通知的时候,特地强调这次扫描iCloud用的是一种叫 NeuralHash 的加密技术,是无法直接看到用户照片的。苹果通过国家失踪和受虐儿童中心儿童安全组织提供的CSAM 图像,作为数据库,然后扫描用户iCloud时,会进行比对匹配。
最终也会有人工审核,如果识别错误,用户也可以进行申诉。
声明的最后,苹果还放了很多报告材料,来佐证这项技术的可行性与安全性。
目前只在苹果的美国官网有这项声明,其它国家后续会不会跟进这个功能还未知,另外,据了解,这个功能只会识别iCloud里的照片,存储在手机本地的照片不会被识别。也有外媒指出,这个功能应该不是强制的,用户自己选择是否开启。