业界丨人工智能哪些领域及公司值得关注?Playfair投资人为你阐述六大关注方向

AI科技评论按:有人将人工智能定义为“认知计算”或者是“机器智能”,有的人将 AI 与“机器学习”混为一谈。事实上,这些都是不准确的,因为人工智能不单单是指某一种技术。这是一个由多学科构成的广阔领域。众所周知, AI 的最终目标是创建能够执行任务并且具备认知功能的智慧体,否则它只是在人类智力范围内的机器。为了完成这个野望,机器必须学会自主学习,而不是由人类来对每一个系统进行编程。

令人兴奋的是,在过去 10 年中,人工智能领域已经取得了大的进步,从自动驾驶汽车到语音识别到机器翻译,AI 正在变得越来越好,也离我们越来越近。近日,知名风投 Playfair Capital 风险投资人 Nathan Benaich 在 medium 上发布文章《6 areas of AI and machine learning to watch closely》,讲述了他眼中人工智能发展势头比较火热的领域及其应用。AI科技评论编译。

1. 强化学习(RL)

强化学习是一种试错(trial-and-error)的学习范式。在一个典型的 RL 中,强化学习需要连续选择一些行为,而这些行为完成后会得到最大的收益。强化学习在没有任何标记,也不告诉算法应该怎么做的情况下,先尝试做出一些行为,得到一个结果,然后通过判断这个结果的正误对之前的行为进行反馈,再由这个反馈来调整之前的行为。通过不断的调整,算法能够学习到在什么样的情况下选择什么样的行为可以得到最好的结果。谷歌 DeepMind 就是用强化学习的方法在 Atari 游戏和围棋中取得了突破性进展。

应用范围:为自动驾驶汽车提供 3D 导航的城市街道图,在共享模型环境下实现多个代理的学习和互动,迷宫游戏,赋予非玩家视频游戏中的角色人类行为。

公司:DeepMind(谷歌),Prowler.io,Osaro,MicroPSI,Maluuba (微软),NVIDIA,Mobileye 等。

主要研究人员: Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell(谷歌 DeepMind),Carl Rasmussen(剑桥),Rich Sutton (Alberta),John Shawe-Taylor(UCL)等等。

2. 生成模型

与判别模型不同的是,生成方法可以由数据学习联合概率密度分布,然后求出条件概率分布作为预测的模型,即生成模型。它的基本思想是首先建立样本的联合概率概率密度模型,然后再得到后验概率,再利用其进行分类。2014 年,蒙特利尔大学的 Ian Goodfellow 等学者发表了论文 《Generative Adversarial Nets》 ,即“生成对抗网络”,标志了 GANs 的诞生。这种生成对抗网络就是一种生成模型(Generative Model),它从训练库里获取很多训练样本,并学习这些训练案例生成的概率分布。GANs 的基本原理有 2 个模型,一个是生成器网络(Generator Network),它不断捕捉训练库里真实图片的概率分布,将输入的随机噪声(Random Noise) 转变成新的样本。另一个叫做判别器网络(Discriminator Network),它可以同时观察真实和假造的数据,判断这个数据到底是真的还是假的。这种模型是用大规模数据库训练出的, 具有比其他无监督学习模型更好的效果。

应用范围:用于真实数据的建模和生成,模拟预测时间序列的可能性,比如为强化学习制定计划,在图像,视频,音乐,自然语句等领域都有应用,比如预测图像的下一帧是什么。

公司:Twitter Cortex,Adobe, 苹果,Prisma, Jukedeck,Creative.ai,Gluru, Mapillary,Unbabel 等。

主要研究人员:Ian Goodfellow (OpenAI) , 大神Yann LeCun 以及Soumith Chintala(Facebook AI Research),Shakir Mohamed 以及 Aäron van den Oord(谷歌 DeepMind) 等等。

3. 记忆网络

记忆网络指的是带有内存的神经网络。为了使 AI 系统能够在多样化的现实社会中得到更好的推广,它们必须不断学习新的任务,并“记住”自己是如何执行任务的。然而,传统的神经网络并不能做到这些。原因是当它们在执行 B 任务时,网络中对于解决 A 任务的权重发生了改变。

不过,有几种强大的架构能够赋予神经网络不同程度的记忆,比如长短期记忆网络 LSTM,它能够处理和预测时间序列。还有 DeepMind 的新型机器学习算法“ 可微分神经计算机”DNC,它将“神经网络”计算系统与传统计算机存储器结合在一起,这样便于它浏览和理解复杂的数据。

应用范围:这种学习代理可以应用到多种环境中,比如机械臂控制物体,时间序列的预测(金融市场,物联网等)。

公司:Google DeepMind,NNaisense ,SwiftKey/微软等

主要研究人员: Alex Graves, Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber (IDSAI),Geoffrey Hinton(Google Brain/Toronto)等等。

4. 针对小数据集的学习,构建更小的模型

大家都知道,基于大量数据集可以构建出色表现的深度学习模型,比如著名的 ImageNet,作为最早的图片数据集,它目前已有超过 1400 万张被分类的图片。如果没有大数据集,深度学习模型可能就难以有良好的表现,在诸如机器翻译和语音识别上也难执行复杂任务。这种数据需求在使用单个神经网络处理端到端问题时会增长,即把语音的原始音频记录作为“输入→输出”语音的文本转录。如果想要 AI 系统用来解决更多具有挑战性,敏感或耗时的任务,那么开发出能够从较小的数据集学习的模型非常重要。在对小数据集进行培训时,也存在一些挑战,比如处理异常值以及培训和测试之间数据分布的差异。此外,还有一种方法是通过迁移学习来完成。

应用范围:通过模拟基于大数据集的深层神经网络的表现,训练浅层网络具备同等性能,使用较少的参数,但却有深度神经网络同等性能的模型架构(如 SqueezeNet),机器翻译等。

公司:Geometric Intelligence/Uber,DeepScale.ai,微软研究院, Curious AI 公司,Google,Bloomsbury AI

主要研究人员:Zoubin Ghahramani (剑桥),Yoshua Bengio(蒙特利尔大学), Josh Tenenbaum(麻省理工学院),Brendan Lake (纽约大学),Oriol Vinyals(Google DeepMind) , Sebastian Riedel (UCL) 等。

5. 用于推理和训练的硬件

人工智能的发展依仗多项技术的推荐,而我们常说的 GPU 就是促进 AI 进步的主要催化剂之一。与 CPU 不同,GPU 提供了一个大规模并行架构,可以同时处理多个任务。考虑到神经网络必须处理大量(通常是高维的) 数据,在 GPU 上的训练比 CPU 快得多。这就是为什么 GPU 最近很受各个科技大佬追捧的原因,其中包括众人熟知的 NVIDIA 、英特尔、高通、AMD 以及谷歌。

然而,GPU 并不是专门用于培训或者推理的,它们在创建之始是为了渲染视频游戏中的图形。GPU 具有超高的计算精度,但这也带来了存储器带宽和数据吞吐量问题。这为包括谷歌在内的一些大公司开辟了竞竞争环境,专门为高维机器学习应用设计和生产的芯片顺势而生。通过设计出新的芯片可以改善内存带宽等问题,或许也能具备更高的计算密度,效率和性能。人工智能系统给其所有者提供了更快速有效的模型,从而形成“更快,更有效的模型培训→更好的用户体验→更多用户参与产品→创建更大的数据集→通过优化提高模型性能”这样的良性循环。

应用范围:快速训练模型(尤其是在图像上),物联网,云领域的 IaaS,自动驾驶汽车,无人机,机器人等。

公司:Graphcore, Cerebras,Isocline Engineering,Google ( TPU ),NVIDIA ( DGX-1 ),Nervana Systems (Intel),Movidius ( Intel ), Scortex 等。

6.仿真环境

为人工智能生成训练数据通常具有挑战性,但是为了让这项技术可以运用在现实世界中,必须要将它在多样化环境中进行普及。而如果在仿真环境中训练机器学习,随后就能把知识迁移到真实环境中。这无疑会帮助我们理解 AI 系统是怎么学习的,以及怎样才能提升 AI 系统,还会大大加速机器人的学习速度。仿真环境下的训练能帮助人们将这些模型运用到现实环境中。

应用范围:学习驾驶,制造业,工业设计,游戏开发,智能城市等。

公司:Improbable,Unity 3D,微软,Google DeepMind/Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard 等。

主要研究人员: Andrea Vedaldi (牛津大学)等。

Via medium

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-02-02

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

神经形态计算与神经网络硬件最全调查:从研究全貌到未来前景

选自arXiv 机器之心编译 参与:Jane W,吴攀 神经形态计算被认为是未来人工智能计算的重要方向,近日,电气和电子工程师协会(IEEE)多位研究者联合发...

3546
来自专栏用户2442861的专栏

Deep Learning(深度学习)学习笔记整理系列之(一)

1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献。

722
来自专栏AI科技大本营的专栏

AI大行其道,你准备好了吗?——谨送给徘徊于转行AI的程序员

作者 | 章华燕(金桥智慧科技) 前言 近年来,随着 Google 的 AlphaGo 打败韩国围棋棋手李世乭之后,机器学习尤其是深度学习的热潮席卷了整个IT...

3215
来自专栏机器人网

顶级AI会议NIPS压轴2017

NIPS,全称神经信息处理系统大会(Conference and Workshop on Neural Information Processing Sys...

3568
来自专栏AI研习社

新加坡国立大学霍华德:NLP 都有哪些有意思的事儿?

AI 研习社按:人工智能的发展不仅是给社会带来了巨大的变化与进步,同样也给我们每一个莘莘学子的人生带来了重大的机遇与挑战。本文的分享嘉宾就是一位紧紧跟随时代浪潮...

3569
来自专栏镁客网

Yoshua Bengio 专栏文章:深度学习崛起带来人工智能的春天

1282
来自专栏腾讯技术工程官方号的专栏

腾讯AI Lab副主任俞栋在GMIS 2017大会上的演讲:语音识别领域的四项前沿研究

本文转载自机器之心 作者:黄小天 5 月 27 日,由机器之心主办、为期两天的全球机器智能峰会(GMIS 2017)在北京 898 创新空间顺利开幕。大会第一天...

1915
来自专栏AI科技评论

干货 | AI 大行其道,你准备好了吗?—谨送给徘徊于是否转行 AI 的程序员

AI 科技评论按:本文作者章华燕, 金桥智慧科技算法工程师。本文原载于个人博客,AI 科技评论获得授权转载。 前言 近年来,随着 Google 的 AlphaG...

2483
来自专栏机器学习算法全栈工程师

AI大行其道,你准备好了吗?—谨送给徘徊于转行AI的程序员

前言   近年来,随着 Google 的 AlphaGo 打败韩国围棋棋手李世乭之后,机器学习尤其是深度学习的热潮席卷了整个IT界。所有的互联网公司,尤其是 G...

3319
来自专栏AI科技评论

专访蓝光辉教授:在随机优化算法的世界里徜徉

AI 科技评论按:在大规模机器学习问题的求解中,随机优化算法占据着不可替代的地位。大数据在提供海量信息的同时,也暴露了传统计算方法效率低的问题。举例来说,从最初...

1123

扫码关注云+社区