前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >地平线机器人CEO余凯:人工智能和深度学习的下一个风口在哪(含22页PPT)

地平线机器人CEO余凯:人工智能和深度学习的下一个风口在哪(含22页PPT)

作者头像
AI科技评论
发布2018-03-08 16:50:47
1.1K0
发布2018-03-08 16:50:47
举报
文章被收录于专栏:AI科技评论AI科技评论

雷锋网按:本文根据余凯在微软亚洲研究院召开的“让世界充满 AI-人工智能研讨会”上所做的报告《 “AI Inside”无处不在的未来 》编辑整理而来,在未改变原意的基础上略有删减。

我总在思考,如果当一个风口到了的时候,我再进入这个风口,我会没有满足感。

我始终在想,下一个机会在什么地方?它现在可能处于边缘状态,但我相信某个边缘的机会,会成为一个未来的机会,而这个未来的机会就是下一个风口。

这个思考过程非常痛苦,因为需要不断否定自己,去挑战自己,而且不被大多人理解。

2012 我们在清华大学以及百度内部推深度学习,别人会质疑:投入这么大的资源去做这个事情是否值得。而现在,很多项目都是基于深度学习,并且应用非常的广泛。

这其实就是一个从边缘到中心的典型案例。

我继续在思考,是不是该到边缘去,看看将来有没有机会成为撬动世界的力量。这就是我的 AI Inside,之前有个概念叫 Intel Inside,它创造了摩尔定律,撬动了整个 IT 产业。

2002 年我在微软实习,当时我、何晓飞、颜水成是团队里为数不多较为关注机器学习的人,因为志同道合我们就成为了好朋友。有意思的是,之后我们三人里面,我创立了百度深度学习研究院,晓飞创立了滴滴研究院,而水成则创办了 360 人工智能研究院。

驱动人工智能进展的三大因素

我认为驱动人工智能的进展主要有三个因素:

  • 大数据:线下的数据不断线上化。
  • 大算法:深度学习和增强学习的发展,深度学习用来感知、处理信号,增强学习则做于决策。二者相辅相成。
  • 大计算:按照摩尔定律,2030 年一千美金买到的计算资源跟人脑相似。当然,现在英特尔宣布摩尔定律开始变慢。所以预测没法这样下去,另外一方面,从宏观上讲,对处理器架构的改版不仅仅是工艺层面,架构的变化也为计算带来变化。

深度学习为何取得成功?

从统计学习理论角度讲,分析一个学习算法的性能一般用推广误差来分析它。如果我们对推广误差的来源做分析,我们就能找到更好的方法去控制算法中一些不恰当的地方,以便找到更好的手段。

这其中有一个经典的统计角度分析方法,就是把推广误差分解为:近似误差(Approximation error) 和估计误差(Estimation error)。

近似误差(Approximation error)主要会做一些假设,由于假设的不完美,所以带来了近似误差,另外一种由于数据的不完美,所导致估计误差(Estimation error)的出现。

这样分析存在一个问题,就是你假设的计算资源是无限的,所以可以得到这样一个分析的结果。但从计算机科学的角度上来讲的话,我们会考虑计算的不完美,所以引入第三个误差:Optimization error,也就是算法。

考虑到计算的不完美,我们得到一些引导。

  • Model Class Bias:我们用大模型,模型越来越大,Bias 就越来越小。
  • 用更多的数据。
  • 设计一个合适的算法。

深度学习处于一个非常幸运的区间,从统计性能来讲,他的 Model Bias 很小,但从计算效果来讲,它可以看到大数据。

这是一个很幸运的事情,过去深度学习在视觉和语音上有着很多的应用,而在互联网行业中主要应用在搜索和广告中,当然,机器人也是一大落地方式,深度学习在机器人的作用主要在于决策。

深度学习成功应用的案例

在百度期间,我们利用很大的模型和 1000 亿个训练样本,去改善搜索引擎的检索,比谷歌的 Ranknet 早两年。

包括在数据中心用深度学习改善运行效率,把 PUE(评价数据中心能源效率的指标)降低,这比 Deepmind 今年做出的结果早一到两年时间。

除了这些以及自动驾驶外,深度学习还能提升广告收入。这是百度当年的股票曲线:

图中那个节点,是百度对外公布基于深度学习的百度蜂巢网络(广告系统)的节点。

刚加入百度的时候,我在自我介绍环节提到,希望在两三年时间内让外界在讨论 Google 人工智能时也会讨论百度。

站在今天这个时间点上,我想跟大家分享。

深度学习很热了,它的下一个机遇在哪儿?

我的回答是: AI Inside。

过去我们在云端部署算法和服务,但是现在有个机会是,把运算放在嵌入式和前端中。

比如是否可以在前端实现语音识别?这样在跟太太说的话不一定要传在云端里面,隐私能更好保护,体验更好。

再比如说在自动驾驶,如果有个小孩子突然横穿马路,传感器需要把这个信号传送至云端,然后做决策,但如果这个时候网络信号不好呢?

这就涉及到如何在前端嵌入式地解决人工智能的问题。

(颜水成博士曾在雷锋网承办的 CCF-GAIR 大会中提到,如果将运算任务直接下发到智能设备终端上,这些瓶颈就会迎刃而解。但是,把运算载荷放到设备上,显然要克服诸多问题。其中最大的一个就是:终端设备的运算能力存在天花板。由于智能设备成本有限,大多不可能配备顶级运算芯片)。

在中国有很多应用场景,中国每年需要新部署一亿的安防摄像头,大概到 2021 年,其中 30% 的是智能安防摄像头。这就必须要求低功耗,如果功耗很高,在阳光照射下,温度能达到 70 到 80 度,这种情况下就不能很好地处理计算。

平均每辆自动驾驶汽车拥有 8 到 10 个摄像头,再加上传感器、雷达、激光雷达等等,每一秒产生 TB 的级的数据,这种计算怎么去处理?

孙正义预测,2040 年会有 100 亿个机器人,当然这种机器人指的是广义上的智能机器,而不仅仅是人形机器人。

历史总是在不断重复,首先是 Enabling Technology Businees ,然后是 Technology Tnabled Business。

前者卖的是技术本身,当这些技术成熟后,一些公司做开发直接采用别人的技术,在这基础上,这些公司卖的是其他产品。

互联网时代,思科的市值一度高达到 3000 亿美金。虽然当时我们不知道互联网有什么用,但得先铺好网络,等网络铺好后,在这上面出现了 Google、Facebook 这些应用。正如图中显示,谷歌在后面成长起来。

移动互联网,虽然不知道移动应用在哪里,但移动网络需要 CDMA,铺好后苹果成为了巨无霸。

过去三四年时间,有个规律正在发生。

2011 年谷歌做大规模的深度神经网络训练,最后识别出猫脸,其实这件事是失败的。当时他们相信用 CPU 可以做所有事情,后面 Jeff Dean 意识到做神经网络训练用 CPU 是错误的。在百度,我们大规模用 GPU 做深度学习训练,在 2014 年,我们和微软都意识到 GPU 只适合做训练,不适合推断和预测,所以在大规模部署FPGA。今年我们也看到了其他产品如 TPU 和 BPU。

我再给大家看一个曲线,这个曲线是我一个礼拜之前画的:

这是英伟达的股价曲线,从去年七月开始到现在涨了四倍。在全球所有的高科技公司里面没有一家可以像它一样如此高速成长。为什么?现在无论 AI 大公司还是小公司,总需要买 GPU 训练模型。这就是 Enabling Technology 先行,Technology Enabled Business 顺势崛起的一个典型案例。

地平线正在建立一个软件和处理器的深度神经网络平台,让上层应用的表现有 1000 倍的提升,不是跟 CPU 比,我们是跟 GPU 比。

我们面向的应用场景主要包括自动驾驶和智能家居。

和英伟达的业务相比,他们的工作区域是在 20 瓦到 300 瓦,地平线的目标是 0.5 瓦到 5 瓦,他们的核心竞争力是价格优势和服务,我们的定位策略是芯片+算法、解决方案和设备。

一直到今天为止,谷歌和百度的无人车在测试时每行驶一小时就需要在树荫下休息,知道为什么吗?因为要散热,无人车的功耗是非常大的。

假如我们涉及处理自动驾驶这样一个计算,跟英伟达的计算相比,我们的不同在哪里。

地平线的优势在于我们跑这个运算时少于 1 瓦特,但他们用了 100 瓦特,这就是我们之间的区别,也是地平线机器人正在做的事。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-11-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 驱动人工智能进展的三大因素
  • 深度学习成功应用的案例
  • 深度学习很热了,它的下一个机遇在哪儿?
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档