首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果爆出大丑闻!多年来一直偷窥用户,推迟扫描账户图片功能

这几天苹果正处于风暴中心,自从苹果宣布即将在新的iOS 15系统中,加入一项扫描用户iCloud账户中图像的功能后,苹果就遭到了业界和用户的猛烈抨击。很多用户担心这项功能的加入,会让苹果侵犯自己的隐私。最开始苹果还一直咬定这项功能不会侵犯用户的隐私,但在爆出更多不利于苹果的消息后,苹果也不得不服软,宣布会推迟这项功能上线。

实际上对苹果而言,推出这项功能的初衷是很好的。苹果研究了一种算法,能检测设备内儿童的不雅照片,在检测之后,苹果会对相应违规的账号进行封禁,并将违禁信息传递给执法部门,这样最大限度地限制了这些图片的传播。听起来似乎还比较靠谱,但用户真正担心的是,在使用这种算法后,苹果就有可能随时随地查看用户账户中的图片,这显然是对自己隐私的一种侵犯。

不过苹果之前表示,这只是一种算法,而不是具体图片的查看。苹果的解释是,在检测全程中,都不会知道用户相册中图片的具体信息,只是本地算法在通过比对后,会告诉苹果这部手机中可能有相关内容。并且该检测算法全程都会在手机本地完成。而且用户需要在其照片库中满足约30个虐童(CSAM)内容的匹配,苹果才会被提醒相关账户的违禁情况。

所以对苹果而言,他们认为这只是一种CSAM的算法和匹配,并不是查看用户的照片,只要用户的照片不符合虐童图片的信息,那么苹果也不会知道这张照片的内容和信息。不过且不管用户信不信苹果的说法,就苹果的解释而言,这种检测方式高度依赖于CSAM算法,不过随着大家对这种算法的较真,现在反而有更多关于苹果的丑闻被爆出。

其实所谓的算法,就是苹果在用户手机本地和iCloud/苹果服务器云端,用演算法对使用者图片和一个第三方CSAM 资料库进行哈希值比对。一旦比对成功,苹果就会遮蔽这张照片,并且可能采取后续的做法,如报警、封禁账号等等。但是这项技术并不靠谱,现在已经有人曝光:苹果这项算法有缺陷,因为这类技术已经被攻破,所以即使两张不同的照片,也可能拥有同样的哈希值,这样会导致算法出错,将本来没有虐童照片的账户给错误的封禁了。

更糟糕的是,现在看来苹果并不是想在iOS 15系统才采用这项功能,而是很早就悄悄把这个功能放到了现在的iOS系统。现在已经有很多技术研究人员就发现,苹果其实已经很早就把CSAM的算法植入到iPhone 的系统里了,并且苹果还故意混淆了其API命名。从现在一系列证据以及苹果之前发表的言论来看,苹果有极大可能从2020年之前就已经悄悄在用户的iPhone中进行图片扫描,更关键的是用户自己一无所知。

非常有趣的是,苹果自己承认,苹果很早就开始扫描使用者的iCloud Mail,也即使用者注册iCloud 账户时得到的那个@iCloud.com 后缀的登录电子邮箱。同时苹果还表示,也在对一些“其它数据”进行同样的扫描,但拒绝透露具体是哪些数据。不过苹果也表示,自己从来没扫描过iCloud的云端照片,虽然这个说法估计没人相信。

真正让人感到不安的是,苹果可以说是所有厂商在保护用户隐私方面宣传最为激进的一个厂商,这几年来iOS系统的很多功能也是加强用户的隐私保护。而且用户个人隐私保护,还是苹果用于贬低竞争对手的一套说辞……但现在看来,苹果的确不像我们想象的那样干净,多年来苹果一直在扫描我们的账户,但苹果却从来没有告知过用户。所以现在看起来苹果声称的保护用户隐私,似乎这个口号对它自己却不适用。

由于大量苹果自己扫描用户账户的丑闻爆出,再加上用户对这项功能的强烈反对,所以苹果不得不宣布,这项功能将延迟上线。不过我们也比较疑惑,虽然苹果公开表示这个功能延迟上线,但由于现在众多证据都表明苹果几年来都在扫描用户的账户,所以我们担心苹果即使这项公开的功能不能很快上线,但私下苹果仍然会继续我行我素。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210904A04E5200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券