苹果因2022年取消CSAM检测功能被起诉

IT之家 12 月 9 日消息,苹果公司因在 2022 年取消原定的儿童性虐待材料(CSAM)检测计划而被起诉。一位童年时期曾遭受性虐待的 27 岁女性以化名起诉苹果,指控其违背了保护受害者的承诺。

图片

苹果在 2021 年末曾宣布计划通过设备端哈希值系统扫描 iCloud 中的图片,以检测和阻止 CSAM 传播,并在用户发送或接收含裸露内容的照片时发出警告。目前,裸露内容检测功能(Communication Safety)仍然存在,但 CSAM 检测功能因隐私专家、儿童安全组织和政府的广泛反对被取消。

起诉者称,她在 CSAM 检测功能仍在时,曾接到执法部门的通知,发现她遭受性虐待的图片通过一台在佛蒙特州查获的 MacBook 被上传至了 iCloud。她在诉讼中表示,苹果停止这一功能的决定使这些材料得以广泛传播,苹果因此向消费者销售了“有缺陷的产品”,对像她这样的用户群体造成了伤害。

据该女子的一名律师称,原告要求苹果改变其做法,并向可能多达 2680 名其他符合条件的受害者提供赔偿,此类受害者有权根据法律获得至少每人 15 万美元的赔偿。如果全部受害者成功获得赔偿,苹果的赔偿金额可能超过 12 亿美元(IT之家备注:当前约 87.28 亿元人民币)。

类似的案件已在北卡罗来纳州发生。一名 9 岁的 CSAM 受害者指控苹果,称她通过 iCloud 链接收到陌生人发送的非法视频,并被鼓励拍摄并上传类似内容。苹果公司提出了一项驳回案件的动议,指出联邦法规第 230 条保护其免于对用户上传到 iCloud 的材料承担责任。但近期法院裁定,这一法律保护仅适用于积极内容审核的情形,可能削弱苹果的抗辩理由。

针对新诉讼,苹果发言人弗雷德・塞恩兹表示:“苹果认为儿童性虐待材料令人发指,我们致力于在不损害用户隐私和安全的前提下积极打击相关犯罪。”他提到苹果扩展了信息应用中的裸露内容检测功能,并允许用户举报有害材料。然而,原告及其律师玛格丽特・马比认为,苹果的措施远远不够。

马比表示,她通过执法报告和相关文件发现了超过 80 起与受害者图像及苹果产品相关的案例,其中一个分享这些图像的人是一名湾区男子,其 iCloud 账户中存储了超过 2,000 张非法图片和视频。