六大你应该了解的人工智能和机器学习核心领域

到底什么是人工智能(AI)?

有些人把AI重新解释为“认知计算”或“机器智能”,而其他人错误的将AI与“机器学习”混淆起来。其实AI不是一种技术。它实际上是一个由许多学科组成的广泛领域,从机器人到机器学习。 AI的最终目标,是建立能够执行任务和认知功能(像人类智能一样)的机器。为了实现这个目标,机器必须能够自动学习这些能力,而不是通过端到端编程实现。

令人惊讶的是,在过去10年中,AI领域取得了多大的进步:从无人车到语音识别和合成。在这种背景下,AI已经成为越来越多的公司和家庭的谈话话题,他们不再将AI视为一种20年后的技术,而是影响他们今天生活的一种技术。

以下六个需要密切关注的AI领域,它们将对数字产品和服务产生重大影响。下文将逐一描述这六大领域是什么,为什么重要,将被如何使用,以及不完全的相关产学研信息。

1.强化学习(RL)

RL是一种通过试探而学习的范式,受人类学习新任务的模式启发。在典型的RL设置中,一个软件代理(agent)被赋予这样的任务:观察其在数字环境中的当前状态,并采取相应动作最大化其设定的长期目标奖励。

RL代理从每一步动作中接收反馈,从而得知这个动作促进或阻碍其进展。也就是说,RL代理需要不断地权衡自己的动作,以找到解决问题的最佳策略。

这种方法被谷歌DeepMind用在他们对Atari游戏和围棋的研究中。

在现实工作中,RL被用于优化Google数据中心冷却效能的任务。RL系统让冷却成本下降了40%。在可以模拟的环境中(例如主机游戏),使用RL代理优势是训练成本很低。这与监督学习任务形成鲜明对比,监督学习的训练数据来自真实世界,又贵又难以获得。

应用:多个代理使用共享模型在自己的环境中学习,或者在同一环境中通过互动和互相学习,在mazesro城市街道中学习3D环境下的自动驾驶导航,逆强化学习,以概括观察到的行为学习任务的目标(例如,学习以类似人的行为来驱动或赋予非玩家视频游戏角色)。

主要研究人员:Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare(Google DeepMind),Carl Rasmussen(剑桥),Rich Sutton(Alberta),John Shawe-Taylor(UCL) 公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba / Microsoft,NVIDIA,Mobileye。

2.生成模型

与用于分类或回归任务的判别模型相反,生成模型在训练数据上学习概率分布。通过从这种高维分布中抽样,生成模型输出与训练数据类似的新数据。这意味着,例如,在面部真实图像上训练的生成模型,可以输出类似面部的新合成图像。

有关这些模型如何工作的更多详细信息,请参阅Ian Goodfellow在NIPS 2016上发布的内容。他提出的生成式对抗网络(GAN),因为提供了一种无监督学习的途径,而成为研究领域的热门。

在GAN系统中,存在两个神经网络。一个生成器,采用随机噪声作为输入并且负责合成内容(例如图像)。一个鉴别器,鉴别器已经学会真实图像的样貌,而其任务是识别生成器生成的图像,是真实图像还是假的。

对抗训练可以被认为是一种游戏,其中生成器必须迭代地学习如何从噪声创建图像,使得鉴别器不再能够区分所生成的图像和真实图像。这个框架正在扩展到许多数据模式和任务。

应用:模拟时间序列的可能的未来(例如,用于强化学习中的规划任务);超分辨率的图像;从2D图像恢复3D结构;从小标签数据集推广;其中一个输入可以产生多个正确的输出(例如,预测视频中的下一帧);在会话界面(例如机器人)中创建自然语言;加密;当不是所有标签都可用时的半监督学习;艺术风格转移;声音;绘画图像。 公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck,Creative.ai,Gluru,Mapillary,Unbabel。

主要研究人员:Ian Goodfellow(OpenAI),Yann LeCun和Soumith Chintala(Facebook AI Research),Shakir Mohamed和Aäronvan den Oord(Google DeepMind),Alyosha Efros(Berkeley)等等。

3.具有记忆的网络

为了使AI系统在多样化的现实世界环境中应用,它们必须能够不断地学习新的任务,并记住如何在未来执行所有的任务。然而,传统的神经网络通常不能进行这样的顺序任务学习,就是因为会忘记。

这个缺点被称为灾难性遗忘。会发生这种情况,是因为当网络随后被训练以解决任务B时,网络中对于此前解决任务A的重要权重被改变。

然而,有几个强大的架构,可以赋予神经网络不同程度的记忆。这些包括能够处理和预测时间序列的长短期存储网络(LSTM),这是一种复现神经网络变体。DeepMind的可微分神经计算机,其结合神经网络和存储器系统以便自己学习和导航复杂数据结构。弹性权重固定算法,根据它们对前面看到的任务的重要性,减慢某些权重的学习。以及渐进神经网络,学习任务特定模型之间的横向连接,以从先前学习的网络中为新任务提取有用特征。

应用:可以推广到新环境的学习代理;机器人臂控制任务;自主车辆;时间序列预测(例如金融市场,视频,物联网);自然语言理解和下一词预测。

公司:Google DeepMind,NNaisense,SwiftKey / Microsoft研究,Facebook AI研究。

主要研究人员:Alex Graves,Raia Hadsell,Koray Kavukcuoglu(谷歌DeepMind),JürgenSchmidhuber(IDSIA),Geoffrey Hinton(谷歌脑/多伦多),James Weston,Sumit Chopra,Antoine Bordes(FAIR)。

4.从更少的数据学习和建立更小的模型

深度学习模型需要大量的训练数据才能达到最先进的性能。例如,ImageNet大规模视觉识别挑战中,参与团队要挑战他们的图像识别模型,对象是包含120万个手工标记有1000个对象类别的训练图像。

如果没有大规模的训练数据,深度学习模型将不会收敛到它们的最佳设置,并且在诸如语音识别或机器翻译的复杂任务上不能很好地执行。该数据需求仅在使用单个神经网络来端到端地解决问题时增长。也就是,将语音的原始音频记录作为输入并输出语音的文本转录。

这与以下的方式相反:使用多个网络,每个网络都提供中间表示,例如原始语音音频输入→音素→单词→文本转录输出,或与根据相机中的原始图形直接产生无人车转向命令。

当训练数据特别难获取、昂贵、敏感或耗时很长时,想用AI系统解决问题,最重要的就是开发一个可以从更少的数据(例如一个或者零启动)中,学习最优解决方案。当在小数据集进行训练时,挑战包括过拟合,处理异常值的困难,训练和测试之间的数据分布的差异。

一种替代方法是通过使用统称为迁移学习的过程,利用从先前任务获取的机器学习模型来改进对新任务的学习。

相关的问题是使用类似数量或明显更少的参数,来构建具有最先进性能的更小的深度学习架构。优点将包括更高效的分布式训练,因为数据需要在服务器之间传递,更少的带宽以将新模型从云导出到边缘设备,以及增强在部署到具有有限存储器的硬件中的可行性。

应用:通过学习模拟最初在大量标记的训练数据上训练的深层网络的性能,来训练浅层网络;具有较少参数但与深度模型(例如SqueezeNet)等效的架构;机器翻译。

公司:Geometric Intelligence / Uber,DeepScale.ai,Microsoft Research,Curious AI Company,Google,Bloomsbury AI。

主要研究人员:Zoubin Ghahramani(Cambridge),Yoshua Bengio(Montreal),Josh Tenenbaum(MIT),Brendan Lake(NYU),Oriol Vinyals(DeepMind),Sebastian Riedel(UCL)。

5.针对训练和推断的硬件

AI进步的主要催化剂是图形处理单元(GPU)的重用以训练大神经网络模型。与以顺序方式计算的中央处理单元(CPU)不同,GPU提供可同时处理多个任务的大规模并行架构。

考虑到神经网络必须处理大量(通常是高维数据),在GPU上的训练比CPU快得多。这就是为什么自2012年AlexNet(第一个在GPU上实现的神经网络)发布以来,GPU真正成为淘金热的铲子。 这个领域NVIDIA将在2017年保持优势,领先于英特尔,高通,AMD和最近的谷歌。

然而,GPU不是为训练或推断而专门构建的,它们的主要任务是渲染视频游戏的图形。GPU具有高的计算精度,并不总是需要,并且受制于存储器带宽和数据吞吐量问题。这就就提供了一个新的机会,专门为高维机器学习应用设计和生产芯片。

新芯片设计带来的改进包括更大的内存带宽,图形而不是向量(GPU)或标量(CPU)的计算,更高的计算密度,效率和每瓦性能。

这是令人兴奋的,因为AI系统提可以带来清晰的加速回报:更快,更有效的模型培训→更好的用户体验→用户参与产品更多→创建更大的数据集→通过优化提高模型性能。

应用:更快的模型训练(特别是在图形上);能量和数据效率;运行在使用端的AI系统(物联网设备);始终监听物联网设备;云基础设施即服务;自主车辆,无人机和机器人。

公司:Graphcore,Cerebras,Isocline工程,谷歌(TPU),NVIDIA(DGX-1),Nervana系统(英特尔),Movidius

主要研究人员:?

6.仿真环境

如前所述,为AI系统生成训练数据通常是具有挑战性的。更重要的是,AI必须推广到许多情况下,以验证他们在现实世界中有用。因此,开发模拟现实世界物理和行为的数字环境,将有助于训练和测试AI的通用性。

这些环境将原始像素呈现给AI,然后AI执行动作以达成设置(或学习)的目标。在这些仿真环境中的训练,可以帮助我们了解AI系统如何学习,如何改进,同时也为我们提供可能迁移到真实应用的模型。

应用:学习驾驶;制造业;工业设计;游戏开发;智能城市。

公司:Improbable,Unity 3D,Microsoft(Minecraft),Google DeepMind / Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard

研究人员:Andrea Vedaldi(Oxford)

原文发布于微信公众号 - 量子位(QbitAI)

原文发表时间:2017-01-25

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

逆天!MIT新“像素发声”系统,完美分离声与画(附视频)

?---- 【新智元导读】麻省理工学院(MIT)的计算机科学与人工智能实验室(CSAIL)最近研发出一种名为Pixel Player系统,能够通过大量无标签的视...

31710
来自专栏新智元

Facebook宣布机器翻译全面采用神经网络,现每日处理45亿次翻译

【新智元导读】Facebook 今天宣布,从使用基于短语的机器翻译模型改为使用神经网络系统来处理其社交网络后端每天的翻译请求,每天翻译超过 45 亿次。与基于短...

3558
来自专栏腾讯大数据的专栏

效果广告点击率预估实践:深度学习

1. 引言 深度学习可以说是目前机器学习和人工智能领域最热的词汇了,已经热了数年,而且有望继续热下去。深度学习技术自横空出世以来,在多个应用领域刷新了历史记录,...

3228
来自专栏祝威廉

如何实现AutoML--让机器先做出Baseline

我之前写过一篇如何实现AutoML -- 先Auto每个环节,大致思路是让机器先自动化每一个小环节,每个环节输出唯一一个结果,这样可以极大的简化搜索空间。比如我...

1201
来自专栏AI科技评论

有史以来最精彩的自问自答:OpenAI 转方块的机械手

AI 科技评论按:今年 2 月,OpenAI 发起了一组机械手挑战,他们在基于 MuJoCo 物理模拟器的 Gym 环境中新设计了含有机械臂末端控制、机械手拿取...

1193
来自专栏机器人网

三个自动化深度学习平台比较和盘点

数据科学领域有一部分研究者和开发者已经选择学习这些新技术了,但在预测性和规范性建模的问题类型和技术方面(我们 90% 的工作就是这些),学习深度学习技术却与我们...

1732
来自专栏窦融的专栏

手把手带你做推荐(一):推荐分类和样本构造

继上篇《个性化推荐101》之后,同学们反馈还不够详细,可能对没有做过推荐的同学初上手还是不知所措,故根据自己的经验分三篇出一个系列更加详细的指导文档,一步步带大...

1.6K2
来自专栏新智元

Facebook 交互式神经网络可视化系统,应对海量数据和复杂模型

【新智元导读】神经网络模型的可视化是解决其黑箱问题的一个解决方案,但用于神经网络可视化的大多数工具集中在图像数据集上,这激发了 Facebook 和 Georg...

3916
来自专栏深度学习自然语言处理

谈谈我在自然语言处理入门的一些个人拙见

因为最近在准备本科毕设的论文部分,所以最近原创的相对比较少,但是为了坚持每天学点新知识,我也逼着自己每天抽出晚上的1小时左右把自己想到的并且自己还没理解的小知识...

1182
来自专栏达观数据

技术干货 | 推荐系统中的冷启动问题和探索利用问题

冷启动和探索利用问题是推荐系统技术中的两个关键问题,本文结合达观数据的技术实战,对问题的解决方案进行了梳理和介绍。 1 前言 互联网技术和大数据技术的迅猛发展正...

3545

扫码关注云+社区

领取腾讯云代金券