之前我们说过,苹果计划在iOS 15增加一个「儿童安全功能」,这个功能会扫描检测用户手机上是否存在儿童色情虐待内容。
消息一传出来,遭到了众多网友的反对,认为苹果这一行为侵犯了用户隐私。
苹果的意思是只是保护儿童,并且一再强调他们这项技术并不会泄露隐私,这个技术简单来说,是将相关儿童保护机构提供的 CSAM 数据库和用户图像分别转换成 NeuralHash 哈希值,然后对比这些哈希值是否相同。苹果表示即便一张图片被轻微裁剪、压缩或转换成黑白风格,图像的 NeuralHash 哈希值也不会改变。
苹果的软件主管,也出来解释过,这个这一功能必须开启iCloud照片才能使用,本地照片不参与扫描;而且必须有30张以上的图片被匹配,设备才会被锁定。
尽管如此,消费者却并不买账。很显然,苹果解释的重点在于这个技术的安全性,但是这个扫描相册的行为,本身就是越权了。
而且,虽然苹果说不会看用户的相册,但是,这个功能是存在人工审核的环节,为的是进一步的确认审核。怎么都避免不了会被泄露隐私的可能性。
8 月 19 日消息,据国外媒体报道,全球 90 多个政策和人权组织发表了一封公开信,敦促苹果公司放弃对成年人手机进行儿童性虐图像扫描的计划。
这些组织在信中表示,苹果这一功能威胁到了世界各地人民的隐私和安全。
另外,苹果所宣称的这一技术的安全可靠,也被打脸了。
前不久,国外一位名叫 Asuhariet Ygvar 程序员成功将苹果这一技术破解,他发现早在 iOS 11.3开始,苹果就已经在系统中加入了照片检测模型 NeuralHash,只不过尚未启用。而且他将苹果的AI 模型逆向工程,并将教程发布在网上。
没过多久,另一位来自英特尔的工程师又发现了该模型的一个 bug,苹果的照片监测模型NeuralHash中存在哈希值冲突漏洞,两张完全不一样的照片,哈希值竟然是一样的。
15年的时候,苹果还曾拒绝过FBI破解罪犯手机的要求,而如今苹果却想要“偷看”你iCloud上的照片,不得不说,苹果在隐私保护这块,好像还不如以前了。
总之,苹果加入这个功能,还是得要慎重考虑,你怎么看待苹果的儿童保护功能呢?
我iCloud的5g内存,一点没用过