行动 iOS 18.2 测试版的一部分推出的一项新功能允许澳大利亚的儿童平直向公司证明不当实质。该功能是 iOS 17 中包含的安全纪律的延迟。 这些功能可自动检测 iMessage、AirDrop、FaceTime 和相片中包含败露实质的图片和视频探花 巨乳。
起初的设定是,CSAM告诫一朝触发,就会出现一双干预弹窗。 这些弹窗会证明怎样与当局探求,并带领儿童教导家长或监护东谈主。
当今,当检测到赤身等不稳健实质时,会出现一个新的弹出窗口。 用户不错平直向苹果公司证明图片和视频,而苹果公司则不错将信息发送给联系部门。
当告诫出当前,用户的建设会准备一份证明,其中包括任何袭击性材料、材料前后发送的信息以及两个账户的探求信息。 用户不错选择填写一份表格,阐明发生了什么。
苹果公司收到证明后,将对实质进行审查。 随后,该公司将对该帐户收受活动,包括禁用用户通过iMessage发送信息的功能探花 巨乳,以及将该问题证明给王法部门。
18+动漫该功能目下行动 iOS 18.2 测试版的一部分在澳大利亚推出,但稍后将在行家推出。
正如《卫报》所指出的,苹果很可能选择澳大利亚,因为该国将条件公司在 2024 年底之前对云音问事业中的冷酷儿童和恐怖实质进行监管。
苹果公司告诫说,该代码草案不会保护端到端加密,从而使用户的通讯容易受到大规模监控。 自 2018 年末以来,苹果公司一直公开反对此类勉力。
苹果公司在其平台上处分儿童性冷酷材料(CSAM)的神志受到了抨击。 起始,该公司被申斥莫得负责对待 CSAM 保护问题,这激愤了好多监督团体。
2021 年,苹果筹算推出 CSAM 保护纪律,该纪律将扫描用户iCloud相片中已知的 CSAM 图像。 若是发现,苹果公司将对图像进行审查,然后将证明发送至国度失散与被克扣儿童中心 (NCMEC)。
好多用户对苹果扫描其私东谈主图像和视频的思法示意震怒,并缅思会被诞妄检测到。 苹果公司最终扬弃了这一思法,根由是缅思扫描数据\"会为数据窃贼发现和哄骗新的威迫载体\"。
2024 年,英国国度蜕化冷酷儿童协会 (NSPCC) 示意,在英国的苹果平台上发现的冷酷图片案例比苹果在行家范围内证明的案例还要多。