前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >六大你应该了解的人工智能和机器学习核心领域

六大你应该了解的人工智能和机器学习核心领域

作者头像
量子位
发布2018-01-30 11:54:42
6260
发布2018-01-30 11:54:42
举报
文章被收录于专栏:量子位量子位

到底什么是人工智能(AI)?

有些人把AI重新解释为“认知计算”或“机器智能”,而其他人错误的将AI与“机器学习”混淆起来。其实AI不是一种技术。它实际上是一个由许多学科组成的广泛领域,从机器人到机器学习。 AI的最终目标,是建立能够执行任务和认知功能(像人类智能一样)的机器。为了实现这个目标,机器必须能够自动学习这些能力,而不是通过端到端编程实现。

令人惊讶的是,在过去10年中,AI领域取得了多大的进步:从无人车到语音识别和合成。在这种背景下,AI已经成为越来越多的公司和家庭的谈话话题,他们不再将AI视为一种20年后的技术,而是影响他们今天生活的一种技术。

以下六个需要密切关注的AI领域,它们将对数字产品和服务产生重大影响。下文将逐一描述这六大领域是什么,为什么重要,将被如何使用,以及不完全的相关产学研信息。

1.强化学习(RL)

RL是一种通过试探而学习的范式,受人类学习新任务的模式启发。在典型的RL设置中,一个软件代理(agent)被赋予这样的任务:观察其在数字环境中的当前状态,并采取相应动作最大化其设定的长期目标奖励。

RL代理从每一步动作中接收反馈,从而得知这个动作促进或阻碍其进展。也就是说,RL代理需要不断地权衡自己的动作,以找到解决问题的最佳策略。

这种方法被谷歌DeepMind用在他们对Atari游戏和围棋的研究中。

在现实工作中,RL被用于优化Google数据中心冷却效能的任务。RL系统让冷却成本下降了40%。在可以模拟的环境中(例如主机游戏),使用RL代理优势是训练成本很低。这与监督学习任务形成鲜明对比,监督学习的训练数据来自真实世界,又贵又难以获得。

应用:多个代理使用共享模型在自己的环境中学习,或者在同一环境中通过互动和互相学习,在mazesro城市街道中学习3D环境下的自动驾驶导航,逆强化学习,以概括观察到的行为学习任务的目标(例如,学习以类似人的行为来驱动或赋予非玩家视频游戏角色)。

主要研究人员:Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(Google DeepMind),Carl Rasmussen(剑桥),Rich Sutton(Alberta),John Shawe-Taylor(UCL) 公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba / Microsoft,NVIDIA,Mobileye。

2.生成模型

与用于分类或回归任务的判别模型相反,生成模型在训练数据上学习概率分布。通过从这种高维分布中抽样,生成模型输出与训练数据类似的新数据。这意味着,例如,在面部真实图像上训练的生成模型,可以输出类似面部的新合成图像。

有关这些模型如何工作的更多详细信息,请参阅Ian Goodfellow在NIPS 2016上发布的内容。他提出的生成式对抗网络(GAN),因为提供了一种无监督学习的途径,而成为研究领域的热门。

在GAN系统中,存在两个神经网络。一个生成器,采用随机噪声作为输入并且负责合成内容(例如图像)。一个鉴别器,鉴别器已经学会真实图像的样貌,而其任务是识别生成器生成的图像,是真实图像还是假的。

对抗训练可以被认为是一种游戏,其中生成器必须迭代地学习如何从噪声创建图像,使得鉴别器不再能够区分所生成的图像和真实图像。这个框架正在扩展到许多数据模式和任务。

应用:模拟时间序列的可能的未来(例如,用于强化学习中的规划任务);超分辨率的图像;从2D图像恢复3D结构;从小标签数据集推广;其中一个输入可以产生多个正确的输出(例如,预测视频中的下一帧);在会话界面(例如机器人)中创建自然语言;加密;当不是所有标签都可用时的半监督学习;艺术风格转移;声音;绘画图像。 公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck,Creative.ai,Gluru,Mapillary,Unbabel。

主要研究人员:Ian Goodfellow(OpenAI),Yann LeCun和Soumith Chintala(Facebook AI Research),Shakir Mohamed和Aäronvan den Oord(Google DeepMind),Alyosha Efros(Berkeley)等等。

3.具有记忆的网络

为了使AI系统在多样化的现实世界环境中应用,它们必须能够不断地学习新的任务,并记住如何在未来执行所有的任务。然而,传统的神经网络通常不能进行这样的顺序任务学习,就是因为会忘记。

这个缺点被称为灾难性遗忘。会发生这种情况,是因为当网络随后被训练以解决任务B时,网络中对于此前解决任务A的重要权重被改变。

然而,有几个强大的架构,可以赋予神经网络不同程度的记忆。这些包括能够处理和预测时间序列的长短期存储网络(LSTM),这是一种复现神经网络变体。DeepMind的可微分神经计算机,其结合神经网络和存储器系统以便自己学习和导航复杂数据结构。弹性权重固定算法,根据它们对前面看到的任务的重要性,减慢某些权重的学习。以及渐进神经网络,学习任务特定模型之间的横向连接,以从先前学习的网络中为新任务提取有用特征。

应用:可以推广到新环境的学习代理;机器人臂控制任务;自主车辆;时间序列预测(例如金融市场,视频,物联网);自然语言理解和下一词预测。

公司:Google DeepMind,NNaisense,SwiftKey / Microsoft研究,Facebook AI研究。

主要研究人员:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(谷歌DeepMind),JürgenSchmidhuber(IDSIA),Geoffrey Hinton(谷歌脑/多伦多),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。

4.从更少的数据学习和建立更小的模型

深度学习模型需要大量的训练数据才能达到最先进的性能。例如,ImageNet大规模视觉识别挑战中,参与团队要挑战他们的图像识别模型,对象是包含120万个手工标记有1000个对象类别的训练图像。

如果没有大规模的训练数据,深度学习模型将不会收敛到它们的最佳设置,并且在诸如语音识别或机器翻译的复杂任务上不能很好地执行。该数据需求仅在使用单个神经网络来端到端地解决问题时增长。也就是,将语音的原始音频记录作为输入并输出语音的文本转录。

这与以下的方式相反:使用多个网络,每个网络都提供中间表示,例如原始语音音频输入→音素→单词→文本转录输出,或与根据相机中的原始图形直接产生无人车转向命令。

当训练数据特别难获取、昂贵、敏感或耗时很长时,想用AI系统解决问题,最重要的就是开发一个可以从更少的数据(例如一个或者零启动)中,学习最优解决方案。当在小数据集进行训练时,挑战包括过拟合,处理异常值的困难,训练和测试之间的数据分布的差异。

一种替代方法是通过使用统称为迁移学习的过程,利用从先前任务获取的机器学习模型来改进对新任务的学习。

相关的问题是使用类似数量或明显更少的参数,来构建具有最先进性能的更小的深度学习架构。优点将包括更高效的分布式训练,因为数据需要在服务器之间传递,更少的带宽以将新模型从云导出到边缘设备,以及增强在部署到具有有限存储器的硬件中的可行性。

应用:通过学习模拟最初在大量标记的训练数据上训练的深层网络的性能,来训练浅层网络;具有较少参数但与深度模型(例如SqueezeNet)等效的架构;机器翻译。

公司:Geometric Intelligence / Uber,DeepScale.ai,Microsoft Research,Curious AI Company,Google,Bloomsbury AI。

主要研究人员:Zoubin Ghahramani(Cambridge),Yoshua Bengio(Montreal),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol Vinyals(DeepMind),Sebastian Riedel(UCL)。

5.针对训练和推断的硬件

AI进步的主要催化剂是图形处理单元(GPU)的重用以训练大神经网络模型。与以顺序方式计算的中央处理单元(CPU)不同,GPU提供可同时处理多个任务的大规模并行架构。

考虑到神经网络必须处理大量(通常是高维数据),在GPU上的训练比CPU快得多。这就是为什么自2012年AlexNet(第一个在GPU上实现的神经网络)发布以来,GPU真正成为淘金热的铲子。 这个领域NVIDIA将在2017年保持优势,领先于英特尔,高通,AMD和最近的谷歌。

然而,GPU不是为训练或推断而专门构建的,它们的主要任务是渲染视频游戏的图形。GPU具有高的计算精度,并不总是需要,并且受制于存储器带宽和数据吞吐量问题。这就就提供了一个新的机会,专门为高维机器学习应用设计和生产芯片。

新芯片设计带来的改进包括更大的内存带宽,图形而不是向量(GPU)或标量(CPU)的计算,更高的计算密度,效率和每瓦性能。

这是令人兴奋的,因为AI系统提可以带来清晰的加速回报:更快,更有效的模型培训→更好的用户体验→用户参与产品更多→创建更大的数据集→通过优化提高模型性能。

应用:更快的模型训练(特别是在图形上);能量和数据效率;运行在使用端的AI系统(物联网设备);始终监听物联网设备;云基础设施即服务;自主车辆,无人机和机器人。

公司:Graphcore,Cerebras,Isocline工程,谷歌(TPU),NVIDIA(DGX-1),Nervana系统(英特尔),Movidius

主要研究人员:?

6.仿真环境

如前所述,为AI系统生成训练数据通常是具有挑战性的。更重要的是,AI必须推广到许多情况下,以验证他们在现实世界中有用。因此,开发模拟现实世界物理和行为的数字环境,将有助于训练和测试AI的通用性。

这些环境将原始像素呈现给AI,然后AI执行动作以达成设置(或学习)的目标。在这些仿真环境中的训练,可以帮助我们了解AI系统如何学习,如何改进,同时也为我们提供可能迁移到真实应用的模型。

应用:学习驾驶;制造业;工业设计;游戏开发;智能城市。

公司:Improbable,Unity 3D,Microsoft(Minecraft),Google DeepMind / Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard

研究人员:Andrea Vedaldi(Oxford)

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-01-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 到底什么是人工智能(AI)?
  • 1.强化学习(RL)
  • 2.生成模型
  • 3.具有记忆的网络
  • 4.从更少的数据学习和建立更小的模型
  • 5.针对训练和推断的硬件
  • 6.仿真环境
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档