Google发布了基于AI的内容安全API,以过滤更多虐待儿童的图片

谷歌今天宣布推出新的人工智能(AI)技术,旨在帮助识别在线儿童性虐待材料(CSAM)并减少人类评论者对内容的传播。

此举是因为这家互联网巨头因帮助违规者在网络上传播CSAM而面临越来越大的舆论压力。上周,英国外交大臣杰里米·亨特(Jeremy Hunt)曾在Twitter上批评谷歌计划用审查的搜索引擎重新进入中国,因为据报道谷歌不会帮助删除世界其他地方的虐待儿童内容。

谷歌正在考虑审查其进入中国的内容,但不会与英国,美国和其他5个国家合作消除虐待儿童内容,这似乎不同寻常。过去他们为以价值观驱动而自豪...... - Jeremy Hunt(@Jeremy_Hunt)2018年8月30日

今天早些时候,英国内政大臣萨吉德·贾维德(Sajid Javid)发起了一项新的“行动呼吁”,作为政府推动谷歌和Facebook等科技公司采取更多措施打击在线儿童性虐待行为的一部分。该倡议是在国家犯罪署(NCA)的新数据发现英国多达80,000人可能对网络儿童构成威胁之后发布的。

谷歌选择今天宣布当然不是巧合。

神经网络

谷歌的新工具建立在深度神经网络(DNN)之上,并将通过新的内容安全API免费提供给非政府组织(NGO)和其他“行业合作伙伴”,包括其他技术公司。

去年有消息称,伦敦大都会警察局正在制定人工智能解决方案,该计划将教会机器如何评估违法图像的严重程度。这旨在解决两个问题 - 它将有助于加快在互联网上识别CSAM的速度,但它也将减轻官员手动拖网图像所遭受的心理创伤。

谷歌的新工具应该有助于实现更广泛的推动。历史上,自动化工具依赖于匹配先前识别的CSAM的图像。但根据工程主管Nikola Todorovic和产品经理Abhi Chaudhuri共同撰写的一篇博客文章,通过内容安全API,Google表示它可以通过定位以前未被确认为CSAM的新内容来有效“跟上违规者”。。

他们说:“快速识别新图像意味着今天遭受性虐待的儿童更容易被识别并免受进一步虐待。” “我们正在通过我们的内容安全API向非政府组织和行业合作伙伴免费提供这一功能,这是一种工具包,可以增加审核内容的能力,从而减少人们接触内容。”

大多数主要技术公司现在利用人工智能来检测各种冒犯性材料,从裸体滥用评论。但扩展其图像识别技术以包括照片应该在某种程度上帮助谷歌删除最令人憎恶的滥用形式。“这一举措将大大提高潜在CSAM审查过程的速度,”Todorovic和Chaudhuri继续说道。“我们已经亲眼目睹了这个系统可以帮助评论者在同一时期内找到并采取700%以上的CSAM内容。”

Google推出的合作伙伴组织是英国慈善机构互联网观察基金会(IWF),其使命是“尽量减少'潜在犯罪'互联网内容的可用性,特别是儿童性虐待的图像。”

“我们,特别是我们的专家分析师,对开发人工智能工具感到非常兴奋,这种工具可以帮助我们的人类专家更大规模地审查材料,并通过定位以前未被标记为非法的图像来跟上违规者的步伐。 IWF首席执行官Susie Hargreaves补充道。“通过分享这项新技术,可以加快图像的识别速度,从而使互联网成为幸存者和用户更安全的地方。”

只能通过请求访问Content Safety API,可以通过此表单启动 。

  • 发表于:
  • 原文链接https://venturebeat.com/2018/09/03/google-releases-ai-powered-content-safety-api-to-identify-more-child-abuse-images/
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券