据一家主要的政府儿童保护机构称,苹果公司被指控少报其平台上发现的儿童性虐待材料。
英国国家防止虐待儿童协会 (NSPCC) 表示,通过信息自由请求收集的数据表明,苹果公司与英格兰和威尔士数百起儿童性虐待材料 (CSAM) 事件有关,数量超过该公司一年内在全球官方报告的数量。
《卫报》的一份新报告指出,“英国国家防止虐待儿童协会 (NSPCC) 指责苹果公司严重低估了儿童性虐待材料 (CSAM) 在其产品中出现的频率。”该报告声称,根据警方获得的数据,仅在英格兰和威尔士,儿童掠夺者使用苹果的 iCloud、iMessage 和 Facetime 存储和交换 CSAM 的案件数量就比该公司报告的所有其他国家的案件总数还要多。由 NSPCC 制定。”
苹果因 CSAM 失败而受到猛烈抨击
具体来说,报告的数据据称显示“2022 年 4 月至 2023 年 3 月期间,苹果在英格兰和威尔士涉及 337 起记录的虐待儿童图像犯罪行为。”这个数字高于苹果公司向国家失踪与受虐儿童中心 (NCMEC) 提交的全球平台上报告的 267 起疑似 CSAM 事件的数字。相比之下,Google 报告 2023 年实例数量为 140 万个,Meta 实例数量为 3060 万个。
NSPCC 儿童安全在线政策负责人理查德·科拉德 (Richard Collard) 表示,“英国通过苹果服务发生的虐待儿童图片犯罪数量与全球向当局提交的虐待内容报告数量几乎可以忽略不计之间存在着令人担忧的差异。”他表示,苹果总部公司在应对 CSAM 内容泛滥问题上“明显落后于”许多同行。
这并不是苹果第一次被指控未能阻止儿童性虐待内容,澳大利亚当局曾在 2022 年提出过类似指控。苹果试图在 2021 年针对 CSAM 引入有争议的新保护措施,使用的技术可以扫描儿童性虐待内容的哈希值。根据已知 CSAM 内容的数据库上传到 iCloud 的照片。然而,此举遭到了隐私倡导者的坚决反对,苹果公司在年底前悄悄取消了这一举措。
防止 CSAM 的传播仍然是一个有先见之明的问题,欧盟目前正准备通过立法,要求在 iPhone 及其他设备上扫描“所有数字消息”,甚至不利于端到端加密。
几分钟内掌握你的 iPhone
我们的专家团队拥有数十年的 Apple 设备经验,可提供针对性的建议和指导。和macmao一起了解更多!
免责声明
部分内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 macmao.com@gmail.com,我们会第一时间配合删除。(转载请注明来源自:www.macmao.com)