Facebook打击性侵儿童行为,删870万张儿童裸图

社交网络Facebook周三公布,网站利用新软件技术,于3个月内删除了870万张儿童色情照片,打击性侵儿童的案件。

Facebook表示在过去1年利用机器学习软件,分辨出含有儿童色情及裸露的照片,并在过去3个月内利用自动标图软件,成功删除870万张儿童色情照片,未来将会以类似系统,打击以未成年人士为目标的诱骗案件。

Facebook全球安全部门主管戴维斯(Antigone Davis)表示,软件有效地将有问题的内容优先排列,让公司经训练的团队审视,Facebook正研究将类似技术应用在另一社交网Instagram上。

受到监察单位和议员等方面的压力,Facebook早前承诺致力打击极端和非法的内容,故使用机器学习的程序,过滤数十亿张由用户每日上传的相片。不过目前机器学习的程序仍有不足之处,曾有不少新闻机构及广告商投诉Facebook的自动系统,错误地封锁正常帖子。

如果喜欢看我们写的文章

请扫下图二维码

谢谢关注+分享

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181026G02JQP00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券