首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌发布免费的人工智能工具,帮助公司识别儿童性虐待信息

删除儿童性虐待材料(CSAM)的传播是大型互联网公司的首要任务。但对于前线人员来说,这也是一项艰巨而困难的工作,工作人员必须识别并删除滥用内容。这就是谷歌今天发布旨在帮助这些工作人员的免费人工智能软件的原因。

该领域的大多数技术解决方案都是通过根据以前识别的滥用材料目录检查图像和视频来实现的。(例如,PhotoDNA,由Microsoft开发并由Facebook和Twitter等公司部署的工具。)这种被称为“爬虫”的软件是阻止人们共享已知的先前识别的CSAM的有效方法。但它无法捕获尚未被标记为非法的材料。为此,工作人员必须介入并自己审查内容。

这是谷歌新的AI工具将提供帮助的地方。利用公司在机器视觉方面的专业知识,它通过对标记的图像和视频进行排序并“优先考虑最可能的CSAM内容以供审查”来协助版主。这应该会加快审查过程。谷歌表示,在一项试验中,人工智能工具帮助工作人员“在同一时期内审查了700%以上的CSAM内容。”

互联网观察基金会(IWF)副首席执行官弗雷德兰福德在接受The Verge采访时表示,该软件将“帮助像我们自己的团队更有效地部署我们有限的资源。”“目前我们只使用纯粹的人力来完成内容并说:'是',“这将有助于进行分类。”

IWF是致力于阻止CSAM在线传播的最大组织之一。它位于英国,但由包括谷歌在内的大型国际科技公司提供资金。它聘请了人类主持人团队来识别滥用图像,并在十几个国家运营提示线,以便互联网用户报告可疑材料。它还开展自己的调查行动; 确定共享CSAM的网站,并与执法机构合作关闭它们。

兰福德表示,由于“对人工智能的幻想主张”的性质,IWF将彻底测试谷歌新的人工智能工具,以了解它的表现如何并适合版主的工作流程。他补充说,像这样的工具是向全自动系统迈出的一步,可以识别以前看不见的材料而根本没有人为干预。“那种分类器有点像我们舞台上的圣杯。”

但是,他补充说,这些工具应该只受到“明确切割”案件的信任,以避免让滥用材料漏网。“几年前,我会说这种分类器还要五年,六年之后才发明出来,”兰福德说。“但现在我认为,在某些情况下,我们距离创建完全自动化的东西只需要一到两年的时间。”

  • 发表于:
  • 原文链接https://www.theverge.com/2018/9/3/17814188/google-ai-child-sex-abuse-material-moderation-tool-internet-watch-foundation
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券