学界丨从一个失败的强化学习训练说起:OpenAI 探讨应该如何设计奖励函数?

AI科技评论按:在当下,强化学习算法以一种惊奇、不可思议的方式进入到了我们的视野中。AI 科技评论此前也做过不少相关的覆盖和报道,而在 OpenAI 的这篇文章中,Dario Amodei 与 Jack Clark 将会探讨一个失败的强化学习模型。这个模型为何失败?原因就在于你没有指明你的奖励函数。本文由 AI 科技评论进行编译。

我们最近在 OpenAI 上使用 Universe 来进行强化学习的实验。Universe是我们使用的一款软件,可以用它来测试和训练AI代理。实验显示,有时候我们在使用强化学习进行训练时,会出现一些问题。在接下来的例子当中,我们将针对这种情况进行说明:我们将一个模糊的奖励函数应用于一个强化学习的代理,而这导致了我们的代理对优先级的处理是错误的,这也就违反了背景的设定。

要想设计安全的AI系统,我们的算法就不能容忍这种情况的发生。我们必须确定目标,不能使我们的AI代理误解目标。

我们正在 CoastRunners 上训练我们的 AI 代理。正如大多数人类所理解的那样,游戏的目标是快速并且完美的在其他玩家之前完成游戏。在比赛过程中,CoastRunners 并不会对玩家的游戏进程进行奖励。相反,玩家会因为不断地完成目标而获得更高的分数。

我们假设玩家所获得的分数并不是玩家完成比赛的关键,对此我们在这个游戏当中设置一个内部基准,使用这个基准来衡量强化学习系统在这个竞赛中的表现。然而结果表明,强化学习代理为了获得更高分数,而不去完成游戏。这表明,在我们使用强化学习来训练代理玩这个游戏的时候,导致了意想不到的情况。

这个强化学习代理找到了一个孤立的咸水湖,它可以不断地绕圈并不断地完成三个任务来获得分数,当这个三个任务被重现之后,该代理就再次重复它的行动来完成这三个任务。不在乎一味的着火、冲撞其他的船只、进入错误的航道,我们所训练的代理通过使用这种方式来获得更高的分数,而不是使用正常的策略来完成比赛。我们的AI代理获得的分数,平均下来比其他的人类玩家高20%。

尽管在电子游戏的环境中,这种行为是无害并且有意思的,然而这种行为表明广泛存在于强化学习当中的一个问题:精准地使代理按照我们人类的意愿来做事,是很困难或者说是不可能的。我们得到的结果往往是,我们所训练出的是一个不完美而又易受影响的代理。在更广范围来说,它违背了基本的工程学原理,即系统必须是可信并且可以预测的。我们也在我们的实验论文《聚焦AI系统安全问题》中,进行了更深入的探讨。

我们该如何避免这些问题?除了谨慎地设计奖励函数之外,OpenAI 对一些研究方向的探索,可能会有助于减少使用那些错误的奖励函数。

  • 示范训练将会帮助我们避免使用直接指定奖励,相反它会帮助我们训练的代理学习如何模仿一个人来完成任务。在本例中,由于大部分的人类玩家都在试图完成游戏,因此我们的强化学习算法也会这样做。
  • 除此之外,或者说除了人类的示范作用之外,我们可以通过估计游戏进行的环节,或者以一种交互的方式来控制我们的代理,并将其视为人的反馈。非常小的评价反馈可能会帮助代理避免进入死循环。
  • 使用迁移学习的方式来训练众多相似的游戏,并推断对于这种游戏有一个共同的奖励函数,是有可能的。一个典型的游戏更多的是为了完成比赛,而不是为了获得游戏当中的特殊奖励,在基于这个事实的基础之上,我们的奖励函数会将完成游戏列为最高优先级。这看上去和人类玩游戏的方式一样。

但是这种方法可能存有弊端。例如,假如许多相似的环境拥有类似的奖励函数,我们也许能够将这种奖励函数应用到到一个新的环境。但是。这种应用有可能会引发错误。例如,我们使用许多竞赛类的游戏(这些游戏对于开出跑道的惩罚很小)来训练我们的代理,这将会使我们的代理错误的认为在一个全新的、代价更高的背景下,开出跑道也没什么大不了的。更微妙的是,假如应用这种奖励函数的过程涉及到了神经网络,在该网络中那些互斥的例子,有可能导致奖励函数在非正常的区域内来获得高额的奖励,这种现象并不是我们乐意见到的。

解决这类问题是复杂的。我们希望 Universe可以帮助我们快速地发现并解决这些新的错误,最终使我们的系统可信。AI 科技评论也将持续关注强化学习领域的相关内容。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2016-12-29

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏用户画像

Youtube视频推荐算法的前世今生

在这个阶段,YouTube认为应该给用户推荐曾经观看过视频的同类视频,或者说拥有同一标签的视频。然而此时,YouTube的视频已是数千万量级,拥有标签的部分却非...

51620
来自专栏AI派

一文告诉你什么是用户画像

做推荐系统的时,我们需要了解我们的用户,也就是说需要对用户的基本情况、基本喜好有个了解。

49850
来自专栏ATYUN订阅号

OpenAI发布8个模拟机器人环境以及一种HER实现,以训练实体机器人模型

OpenAI:我们将发布8个模拟的机器人环境,以及一种叫做“事后经验回顾”(Hindsight Experience Replay,简称HER)的一种Basel...

467120
来自专栏AI科技评论

利用好奇心做稀疏反馈任务的学习

AI 科技评论按:近期,Unity 发布了版本 0.4 的机器学习智能体工具包(ML-Agent toolkit v0.4),其中最为突出的新功能是通过额外的基...

10120
来自专栏人工智能头条

最新Github上各DL框架Star数量大PK | 附各框架性能对比分析

11130
来自专栏AI科技大本营的专栏

最新机器学习开源项目Top10

【导读】过去一个月里,我们对近 1400 个机器学习项目进行了排名,并挑选出热度前 10 的项目。这份清单涵盖了包括 OpenAI 最新开发的 RND 算法、U...

7510
来自专栏AI研习社

利用好奇心做稀疏反馈任务的学习

AI 研习社按:近期,Unity 发布了版本 0.4 的机器学习智能体工具包(ML-Agent toolkit v0.4),其中最为突出的新功能是通过额外的基于...

10320
来自专栏AI研习社

人脸识别哪家强?亚马逊、微软、谷歌等大公司技术对比分析

哪一个人脸识别 API 是最好的?让我们看看亚马逊的 Rekognition、谷歌云 Vision API、IBM 沃森 Visual Recognition ...

37230
来自专栏PaddlePaddle

零基础上手深度学习的捷径,居然真的有?

EasyDL全称为Easy DeepLearning,是一款定制模型训练和服务的技术平台。使用时,根据页面文字提示进行四步简单操作,最快10分钟小伙伴们即可训练...

10210
来自专栏新智元

DeepMind 新算法NEC:让 AI 在学习速度上超越人类

【新智元导读】 DeepMind 研究团队的新论文Neural Episodic Control提出了一种称为NEC的新算法,使得“更广泛环境下的学习速度大幅度...

34350

扫码关注云+社区

领取腾讯云代金券