
近日,一位童年时期遭受性虐待的女性受害者对苹果公司提起诉讼,指控苹果公司在2022年取消了原本计划在iCloud中扫描儿童性虐待材料(CSAM)的功能。这一事件引发了广泛关注,不仅因为其涉及隐私与安全问题,还因为潜在的巨额赔偿。
苹果公司在2021年底曾宣布了一项计划,旨在通过扫描上传到iCloud的照片来保护用户免受儿童性虐待材料的影响。该计划还包括一个名为“通信安全”的功能,用于检测图像中的裸露内容,并在发送或接收照片前向用户发出警告。然而,在遭到隐私专家、儿童安全组织以及政府的反对后,苹果公司在2022年取消了这项计划。
这位现年27岁的女性受害者表示,她曾经收到过警方的通知,称她的虐待照片被储存在一台从佛蒙特州没收的MacBook上。她认为,正是因为苹果取消了CSAM检测功能,才导致这些图片得以广泛传播。因此,她认为苹果公司销售的是“有缺陷的产品”,并且这种产品已经伤害了像她这样的受害者群体。
据她的律师透露,这起诉讼要求苹果公司改变其业务实践,并为多达2680名符合条件的受害者提供潜在补偿。据称,目前已有更多受害者加入这场诉讼,使得赔偿金额可能超过12亿美元。
在另一起相关案件中,代表一名9岁CSAM受害者的律师于今年8月在北卡罗来纳州法院对苹果公司提起诉讼。这名女孩声称,陌生人通过iCloud链接向她发送了CSAM视频,并鼓励她拍摄并上传类似的内容。对此,苹果公司辩称,根据联邦法律第230条,它不应对用户上传到iCloud上的内容承担责任。此外,苹果公司还表示,由于iCloud并非独立产品,因此不应承担产品责任。
然而,最近的一些法院判决可能削弱苹果公司的上述主张。美国第九巡回上诉法院裁定,第230条的保护仅适用于积极的内容审查,而非作为避免所有潜在责任的全面保护。苹果公司发言人弗雷德·塞因斯回应称,苹果公司坚决反对儿童性虐待材料,并致力于打击此类犯罪,同时不会损害所有用户的隐私和安全。他指出,苹果公司已经扩展了裸露检测功能,并允许用户报告有害内容。
然而,这位受害者及其律师玛格丽特·马比并不认同苹果公司所采取的措施。为了准备这场诉讼,马比深入研究了执法部门的报告和其他文件,找到了与客户图像和苹果产品相关的案例。最终,她列出了超过80个案例,证明这些图像被广泛分享。据报道,其中一名传播这些图像的人是一名湾区男子,他在iCloud上存储了超过2000张非法图像和视频。
这起诉讼不仅揭示了苹果公司在隐私和安全方面面临的挑战,还凸显了儿童性虐待材料问题的严重性。随着越来越多的受害者加入诉讼,苹果公司或将面临前所未有的法律和道德困境。
这起诉讼的背景和细节也引发了公众对科技公司在保护隐私和安全方面的角色和责任的广泛讨论。未来,苹果公司将如何应对这一挑战,是否会重新考虑其隐私政策和产品设计,将成为人们关注的焦点。

Post by Jack