首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌推出免费AI工具 可快速识别儿童性虐待图片

近日,谷歌发布一款AI(人工智能)工具,可帮助审核人员优先识别儿童性虐待(CSAM)内容,从而防止这些图像在网上传播。谷歌称,这款AI工具不仅可基于已有的数据库作资料对比,还能标记新发现的图片,这意味着正在遭受性虐待的儿童有可能更快被识别出来,并免受进一步虐待。

9月3日,在谷歌工程主管Nikola Todorovic和产品经理Abhi Chaudhuri发布的一篇博文中提到,在一项实验中,该工具可帮助审核人员在同一时间段内,找到比以往更多的儿童性虐待内容,识别效率提升了700%。

事实上,谷歌从2006年就开始了这项研究。2008年,谷歌开始使用“哈希技术”(又称散列技术,是指对一串数据进行杂糅,输出另一段固定长度的数据,作为这段数据的“指纹”)来标记已知的儿童性虐待图像,以便识别重复图像。 每个违规图像都会被分配一个自己的ID,无需人眼查看,计算机即可识别。

2013年,谷歌尝试将儿童性虐待图像的加密“指纹”整合到跨行业数据库中,帮助企业、执法部门和慈善机构更好地在检测和删除儿童性虐待图像方面协作,从而遏制犯罪。

近日谷歌推出的内容安全API则是结合了最前沿的AI技术,可以在现有技术的基础上大规模提升识别效率。通过深度神经网络技术在图像识别上的应用,这款API可以优先呈现更有可能是儿童性虐待场景的图像。另外,与此前只能与已被标记为儿童性虐待的图像不同,这款API还可以识别出以前没有被标记的图像。

谷歌方面表示,这款API将免费提供给NGO(非营利组织)和行业合作伙伴使用。隐私护卫队在该API访问请求页面看到,申请者需提供姓名、电子邮件、组织名称、项目描述等信息。

申请者需提供姓名、电子邮件、组织名称、项目描述等信息。

对于谷歌推出的AI工具,互联网观察基金会表示欢迎。这是一家致力于阻止儿童性虐待内容在线传播的大型组织,在十几个国家运营用户举报网络,并聘请审核团队专门识别和打击CSAM内容。

互联网观察基金会首席执行官Susie Hargreaves OBE表示,这款AI工具可以帮助专家更大规模地审查材料,将以前未被标记为非法材料的图像作为目标,从而提高儿童性虐待内容的识别速度,并跟上犯罪者的步伐,使互联网成为更安全的地方。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180907A0O9AE00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券