首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

眼擎科技朱继志:AI 时代,为什么需要 eyemore 成像芯片?

面向 AI 视觉来开发成像芯片,这眼擎科技想要让机器变得更智能。

由于算法的演进、大量数据的涌入以及算力的提升,人工智能迎来了最好的时代。同时,从智能手机,到自动驾驶,再到安防,AI 图像视觉技术也正在被应用到越来越多的行业。

但目前落地应用过程中所面临的现实的情况是,受深度学习驱动,云端视觉图像处理技术飞速发展的同时,前端视觉成像技术却依旧裹足不前,无法与之相匹配,成为了限制 AI 视觉发展的严重瓶颈。

比如,2016 年的时候,一辆特斯拉 MODEL S 在自动驾驶时发生车祸,导致驾驶员死亡。究其原因,正是由于在逆光以及反光的情况下,其所配备的摄像头无法识别前方车辆,才酿成了那起事故。

当算法以及超强的计算能力赋予了机器逻辑思维能力之后,想要让它真正能够得以在实际生活、生产中实现落地,拥有一双足够明亮的「眼睛」是必不可少的,这也是接下来在人工智能向前推进的过程中,需要去解决的难题。

成立于 2014 年的眼擎科技(eyemore),是一家从事前端成像引擎的技术公司,通过专业的成像引擎芯片,他们利用自主研发的成像算法,为各个应用场景下的机器视觉公司提供前端成像的一体化解决方案,来解决目前 AI 视觉由于光线差导致识别准确度低以及从图像算法到视觉硬件产品落地周期太长的问题。

CES 2018 展会期间,极客公园举办了「极客之夜」活动,我们为世界各地的企业家和创业者搭建了交流的舞台,希望能在这一舞台,尝试为人们找到科技困惑的答案,发现科技新趋势。

在极客之夜的活动上,我们邀请到了眼擎科技创始人朱继志,来看看在 AI 时代,如何理解视觉成像这件事情,以及他们能够为整个行业的发展带来哪些意义。

以下为眼擎科技创始人朱继志演讲实录。

大家知道现在 AI 芯片很热门,讲到 AI 芯片,大部分都是用来处理图像和视觉的。今天我们换一个角度,从成像的角度来看一看 AI 芯片。

成像的历史分成三个阶段。最早是胶卷时代,比较有代表性的企业是柯达;从 80 年代开始进入数码时代,产品转移到了日本,今天大家看到的所有的图像、相机工业里面的视觉都是源自于 80 年代日本数码成像的体系;现在我们正处于 AI 视觉时代。

到了 AI 时代以后,整个成像技术有了一个本质的变化。最大的变化就是以前的图像是给人看的,现在是给机器看的。给人看的时候大家关注的是多少像素,给机器看的时候,则更多的关注于识别的结果。对于整个成像产业而言,这是一个很大的历史变化,这个变化会比从胶卷时代到数码时代的升级更大。

眼擎科技是一家创业公司,做了有四年多的时间。我们的目标是要做超越人眼识别能力的成像技术,同时,我们也是做芯片的,19 号在北京极客公园 IF 大会上,会发布我们 eyemore 成像芯片。

它会是第一颗专门面向 AI 视觉来开发的成像芯片,针对 AI 成像,我们做了一个全新的架构,基于超大规模运算和很多新型的成像算法,我们客户的应用主要包括自动驾驶、安防、人脸识别、医疗视觉、工业检测等各种和 AI 视觉相关的领域。

随着我们算法的不断的提升,计算能力不断的提高,以及场景数据量的不断增加,我们相信,在更多方面,机器的成像能力都能够超越人眼的视觉能力。

我认为视觉在 AI 里边是最快能够实现落地变成产业的一个应用,从我们接触到的很多客户来看,2018 年我认为会有很多落地的 AI 视觉的产品,不管是在安防领域、医疗领域,还是在自动驾驶领域。

由于深度学习带来的 AI 算法有了一个大的突破,很快会传递到整个产业链条的上游,换句话说,AI 的算法其实具备很强的工业赋能的能力。我认为,未来在很多的设备里边,可能都会带来视觉功能的升级需求,因为视觉功能实际上是设备走向智能非常重要的一步。

有关产品落地的问题,实际上我们所有接触过的客户都会碰到一个问题:在实验室训练数据的时候,效果很好,但是到实际场景去部署的时候,因为各种各样环境的问题,比如弱光、逆光、反光这些的复杂环境下,效果就不行了,有点类似于卖家秀很丰满,但是买家秀却很骨感。

他们做训练的数据可能从网上来的非常清晰的高品质图像,但在实际场景当中,因为环境影响导致成像品质不好,非常影响后端 AI 识别的效率和准确率。我们的产品正是帮助这些 AI 客户去解决在产品从算法到实际场景落地过程中所遇到的这个难点。

回过头从芯片产业的格局来看,为什么现在很多公司做 AI 芯片?其实在目前传统的芯片领域,比如 CPU、AP 里边,都有图像处理功能。包括前端的成像部分,以及图像处理部分,在一个芯片里边会有两小部分,一个是做图像处理一个是成像的。

但是现在随着 AI 的要求越来越高,它们已经无法满足实际使用的需要。大家可以想象,一个普通处理器里的图像处理单元,肯定是没办法去跑深度学习的算法的,所以 AI 的芯片就会被拎出来。

我们会把前端专门做成像处理的部分做成一个单独的芯片,相当于从一个芯片会变成是三个。分离出来的芯片最主要来讲,都是用来做图形和成像的处理,因为只有图形和视觉的处理才需要这么多的资源,这个资源可以被用在云端,也可以是被用在终端。

而且未来,我相信关注通用的 CPU 或者 AP 功能的芯片会越来越少,大家的重点都会放在视觉的处理上。AI 的芯片和算法实际上做的是大脑,我们做的成像的芯片是眼睛。这里面又有一个有意思的问题,那就是大脑和眼睛该如何交互。

通常情况下,两个模块要交互,会做一个通信的接口,但是在视觉的处理里边,这会变得非常复杂,有点像脑机接口。

举例来讲,人眼去看东西的时候,当你关注于某一个对象,其它的对象都是模糊的,现在随着 AI 的算法能够知道我们所需要看的对象是什么,这个时候在前端成像的时候,就可以把所有的资源,全部调用来处理。

而当前端成像在生产过程当中可以根据 AI 的需求来进行定制的时候,就能够解决很多视觉 AI 里边很多的问题。

在过去的半年里,我们开始把「大脑」和「眼睛」的交互,作为开发的重点。随着机器大脑越来越智能,眼睛越来越智能,大脑和眼睛的交互越来越智能,这三种智能加在一起,我相信机器的视觉能力超过人的速度会非常快。

AI 芯片产业非常大,在创业之前,我有八年的时间在中国最大的芯片附件公司推广各种各样的芯片。实际上大家做 AI 芯片最主要的事情是要去掌握新一轮的话语权,或者说在 AI 领域的话语权。

大家可以看到,在传统芯片领域,占核心地位的是 CPU 或者 AP,其它的芯片都是连接在 CPU 之上的。CPU 是入口,因为它上面跑着操作系统,操作系统上运行着各种各样的程序,从入口它可以变成一个生态。

每一个主流的处理器周围都有一个生态,这意味着它对其它的芯片有一个话语权和控制权。当 AI 芯片独立出来以后,大家更加关心的是 AI 的算法运行在什么上,AI 的数据被谁来处理。

这个时候,其实随着 AI 芯片变成一个大脑,其它的芯片就会变成器官,比如我们做成像芯片,实际上我们所扮演的角色就是「眼睛」。

在新的框架里边 AI 芯片的大脑作用非常强,未来围绕它会构建一个新的生态,它会有更大的话语权,用户也会更加关注 AI 芯片的进化,这就是为什么大家都要不计成本的去做 AI 芯片很重要的一个原因。

在过去的十多年里,在芯片尤其是处理器里边,有一个很大的趋势,就是 SoC。当一个功能开始成熟化了以后,就会被集成到主处理器芯片里,这个模式其实我认为是一个非常不好的模式,因为它会扼杀产品的功能创新,当所有的功能被一个芯片做完了之后,产品会变得非常没有差异化。

在新的 AI 产品的时代,即便是大家用同样的 AI 芯片,由于运行的算法、训练的数据不一样,也会导致产品之间会产生很大的差异,而这个差异化最终能带来很好的市场价值。

我们做成像芯片也希望跟着 AI 芯片一起,能够给更多做视觉的客户,提供更有差异化的高品质成像芯片。(完)

在即将到来的极客公园 IF 大会上(19-21 日),眼擎科技也将发布全球首款面向 AI 视觉应用的 eyemore 成像芯片,届时眼擎科技朱继志将会对这颗耗时四年,可以大幅提高 AI 视觉算法识别率的芯片予以更为详细的解读,感兴趣的朋友不妨关注下。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180112G0HP5N00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券