首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科技在前进,你若何对待人工智能的生长?

教会机器理解图片和视频的原因是什么?整个环节的困难在哪里?

简单来说,可以将教会机械识图类比为教育小孩,两者在事理和实现路子上有近似之处。我们把机械的识别成效给以奖励或者奖惩的反响,对付为难刁难的局部给以奖励和强化,鼓舞鼓舞鼓励机械几回这种剖断举动。而做错的局部给以奖惩以及减弱,取消机械继续这种剖断举动的念头。用专业的话说,这叫做“有据守的深度进修手艺”。“有据守”指的是对机械的识别成效给以奖励或者奖惩的反响。

脑的思维机制,可以被认为是专门断定一件事物的大脑。这个“大脑”一起头是空白的状态,经由不竭据守的强化或减弱,使这个“大脑”终极学会某件工作。是以可以创造,整个进修过程是一个“海量数据的高机能计较”的问题。我们不仅要让机械可以在线措置每日的海量数据,例如说我们如今图普科技天天必要措置3亿张的图片数据,并且还必要练习机械进修天天的措置数据,来前进往后识别的精准度。

前段时辰在线直播行业确实出现过一些问题,比如“直播造人”事务。其实直播平台是非常注意这块问题的,他们也并不想出现近似的违规工作。但由于同时在线的主播数目良多,监管难度很是大,一个忽略就可能让一些违规内容流出。

传统的直播审计是由人力完成的,必要的人力成本与直播的数量成反比。同时,可能需要数百人同时停止实时审核,并且快速停止闪烁场景的直播,并且对成本和审核员的要求非常高。事实上,不仅是直播行业,而且只有参与教资会的互联网公司,有必要停止过滤有关色情,政治敏感和暴力新闻的信息。

所以,我们用有据守的深度进修手艺,研发了一个审核图片信息的人工智能的模子。用这个建立起来的模子,来专门断定哪些图片是色情的或者必要被过滤掉的违法信息。这个“小大脑”经由海量的数据练习和优化迭代,可以快速、实时的措置巨量的审核数据。它在这方面的智能程度是可以庖代人力的。经由人工智能审核后的数据,会被“小大脑”分为“确定”和“不确定”的两个局部。

我认为移动视频的爆发是不可避免的。因为人类沟通是从简单到复杂,从静态到动态,从非交互到交互,从非实时到实时趋势。因此,视频尺度的爆炸并不是和平的标志,而是一定的趋势。互联网上的信息将以更自然的视频和语音方式得到更广泛的传播。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180828A02MNO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券