首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果私下仍在检测CSAM虐童材料?开发者并未发现相关证据

IT之家 1 月 22 日消息,苹果于去年 12 月宣布,不再对上传到 iCloud 云存储服务的照片进行审查,以检测是否存在儿童性虐待材料(CSAM)。不过近期有传言称苹果在 macOS Ventura 13.1 系统中仍在检测 CSAM 材料,开发人员为此展开了专项调查。

开发人员在虚拟机中运行 macOS 13.1 系统,利用 Mints 软件扫描虚拟机实例的活动日历。在虚拟机上打开 Finder 并浏览了一组图像 1 分钟,捕捉到了 40000 多条日志条目。

如果该系统用于 CSAM 分析,则每个图像都会重复从“mediaanalysisd”到 Apple 服务器的传出连接。IT之家了解到,mediaanalysisisd 是指在 Visual Lookup 中使用的元素,其中照片和其他工具可以显示有关图像中检测到的项目的信息,例如“猫”或对象的名称。

通过调查发现,日志中并没有和 mediaanalysisd 关联的条目。然后发现进一步的日志提取与 macOS 12.3 中出现的 Visual Lookup 非常相似,因为该系统自该版本以来没有发生重大变化。

进一步的试验确定,还有其他一些尝试发送数据进行分析,但目的是让实时文本发挥作用。Oakley 在他的结论中写道,“没有证据表明 Mac 上的本地图像在 Finder 窗口中查看时会计算标识符并上传到苹果的服务器”。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230122A00OQI00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券