前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >德国数字议程委员会主席认为CSAM计划让苹果走上“危险的道路”

德国数字议程委员会主席认为CSAM计划让苹果走上“危险的道路”

作者头像
镁客网
发布2021-09-03 10:03:02
1960
发布2021-09-03 10:03:02
举报
文章被收录于专栏:镁客网

德国议会数字议程委员会主席致信库克,希望苹果重新考虑CSAM计划。

作者 | 来自镁客星球的薛晨

8月5日,苹果公司宣布推出儿童性虐内容(简称CSAM)扫描功能,引发了很多争议。德国议会数字议程委员会主席曼努埃尔-霍弗林(Manuel Hoferlin)表达了对苹果大规模监控的担忧

据外媒Heise Online报道,霍弗林在给苹果公司CEO库克的一封信中提到,希望苹果重新考虑其CSAM计划,表示苹果正在走“危险的道路”,同时在破坏“安全和保密的通信”

霍弗林信中写道,CSAM工具被认为是“自互联网发明以来,我们所见过的通信保密堤坝上最大的漏洞”没有保密通信,互联网将成为“历史上最伟大的监视工具”

尽管CSAM扫描功能目前仅宣布将在美国推出,但霍弗林在信中表示希望苹果不要实施该系统,这样做既是为了保护社会数据,也是为了避免苹果公司陷入可预见的问题。无论苹果是否坚持这一战略,都可能使苹果失去进入大型市场的机会

据悉,目前CSAM工具用于完成两个独立的任务。第一个任务是iCloud Photos CSAM检测,即将用户上传至iCloud的图像与已知CSAM图像的数据库进行匹配。如果检测到儿童性虐图像,数据将发送给Apple进行人工验证。

第二个任务是检测儿童账号绑定的设备,父母或监护人帐户启用检测功能后,当儿童账户发送或接收色情图片时,照片将被模糊化,儿童会被警告,家长也将接到通知。

关于CSAM扫描功能,苹果公司一直对外解释,CSAM扫描不会分析每个人iPhone上的照片,而只是对iCloud上照片特征数据进行比对。

苹果上周还宣布CSAM系统将能够接受第三方审计。另外苹果还强调,如果用户不使用iCloud照片,则CSAM检测过程就不会运行。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-08-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 镁客网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档