专栏首页arxiv.org翻译专栏基于极限学习机的 Q-Networks 新型更新机制(CS NE)
原创

基于极限学习机的 Q-Networks 新型更新机制(CS NE)

强化学习是一种流行的机器学习范式,它可以为复杂的问题找到接近最优的解决方案。最常见的是,这些程序涉及使用神经网络的函数逼近,基于梯度的更新来优化所考虑问题的权重。虽然这种常见的方法通常效果很好,但在强化学习中,还有其他更新机制在很大程度上未被探索。其中一个这样的机制是极限学习机。这些机器最初是为了大幅提高神经网络的训练速度而提出的,此后得到了许多应用。在这里,我们尝试将极限学习机应用于强化学习问题,其方式与基于梯度的更新相同。这种新算法被称为 Extreme Q-Learning Machine(EQLM)。我们在车杆任务(一个基准强化学习问题)上将其性能与典型的 Q-Network 进行比较,并表明 EQLM 具有与 Q-Network 相似的长期学习性能。

原文题目:A Novel Update Mechanism for Q-Networks Based On Extreme Learning Machines

原文:Reinforcement learning is a popular machine learning paradigm which can find near optimal solutions to complex problems. Most often, these procedures involve function approximation using neural networks with gradient based updates to optimise weights for the problem being considered. While this common approach generally works well, there are other update mechanisms which are largely unexplored in reinforcement learning. One such mechanism is Extreme Learning Machines. These were initially proposed to drastically improve the training speed of neural networks and have since seen many applications. Here we attempt to apply extreme learning machines to a reinforcement learning problem in the same manner as gradient based updates. This new algorithm is called Extreme Q-Learning Machine (EQLM). We compare its performance to a typical Q-Network on the cart-pole task - a benchmark reinforcement learning problem - and show EQLM has similar long-term learning performance to a Q-Network.

原文作者:Callum Wilson, Annalisa Riccardi, Edmondo Minisci

原文地址:https://arxiv.org/abs/2006.02986

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 资源 | 清华大学发布OpenNE:用于网络嵌入的开源工具包

    机器之心
  • 【专知荟萃23】深度强化学习RL知识资料全集(入门/进阶/论文/综述/代码/专家,附查看)

    【AlphaGoZero核心技术】深度强化学习专知荟萃 【AlphaGoZero核心技术】深度强化学习专知荟萃 基础入门 进阶文章 Papers Papers ...

    WZEARW
  • 【资源】用深度学习解决自然语言处理中的7大问题,文本分类、语言建模、机器翻译等

    【新智元导读】自然语言处理领域正在从统计学方法转向神经网络方法。在自然语言中,仍然存在许多具有挑战性的问题。但是,深度学习方法在某些特定的语言问题上取得了sta...

    新智元
  • Scientific Reports|通过深度强化学习优化分子

    今天给大家介绍Zhenpeng Zhou , Steven Kearnes等人在Nature/Scientific Reports上发表的文章“Optimiza...

    智能生信
  • 机器学习玩转Flappy Bird全书:六大“流派”从原理到代码

    被Flappy Bird虐过么?反击的号角吹响了 作为一个曾经风靡一时的游戏,《Flappy Bird》曾经虐过很多的人类玩家。 而过去一段时间以来,好多人类借...

    量子位
  • 精选的AI和机器学习资源清单

    关于更多机器学习、人工智能、增强现实、Unity、Unreal资源和技术干货,可以关注公众号:三次方AIRX

    三次方AIRX
  • 资源 | 学到了!UC Berkeley CS 294深度强化学习课程(附视频与PPT)

    选自UC Berkeley 机器之心整理 CS294 深度强化学习 2017 年秋季课程的所有资源已经放出。该课程为各位读者提供了强化学习的进阶资源,且广泛涉及...

    机器之心
  • 资源 | 学到了!UC Berkeley CS 294深度强化学习课程(附视频与PPT)

    选自UC Berkeley 机器之心整 CS294 深度强化学习 2017 年秋季课程的所有资源已经放出。该课程为各位读者提供了强化学习的进阶资源,且广泛涉及深...

    朱晓霞
  • 资源 | UC Berkeley CS 294深度强化学习课程(附视频、学习资料)

    数据派THU
  • 一文看懂深度学习发展史和常见26个模型

    作者简介:沧笙踏歌,硕士毕业于北京大学,目前计算机科学与技术博士在读,主要研究自然语言处理和对话系统,擅长使用深度学习和强化学习解决自然语言处理问题。读博前在公...

    AI科技大本营
  • 写给想要填报CS/AI志愿的考生们

    国内CS/AI方向又有很多新的变化,最明显的是各大高校纷纷设立人工智能学院,开始招收人工智能专业本科生。最近又要开始新的一轮填报志愿,我又来蹭个热点,花了些时间...

    昱良
  • 观点|元学习:实现通用人工智能的关键!

    1 前言 Meta Learning(元学习)或者叫做 Learning to Learn(学会学习)已经成为继Reinforcement Learning(...

    AI科技评论
  • 【资源】用深度学习解决自然语言处理中的7大问题,文本分类、语言建模、机器翻译等

    摘要: 本文讲的是用深度学习解决自然语言处理中的7大问题,文本分类、语言建模、机器翻译等,自然语言处理领域正在从统计学方法转向神经网络方法。在自然语言中,仍然存...

    小莹莹
  • 揭秘上了腾讯财报的QQ卡通画

    动漫是想象的艺术,燃烧了大部分人的青春,通过人工智能让用户见到二次元的自己,是个兼具科技性、艺术性、娱乐性和商业性的课题。下面将由腾讯光影研究室的同学,来帮忙...

    天天P图攻城狮
  • 学界丨深度学习零基础进阶干货分享第三弹

    雷锋网曾编译《干货分享 | 深度学习零基础进阶大法!》,相信读者一定对深度学习的历史有了一个基本了解,其基本的模型架构(CNN/RNN/LSTM)与深度学习如何...

    AI科技评论
  • 博客 | 一文看懂深度学习发展史和常见26个模型

    本文首先从4个方面(张量、生成模型、序列学习、深度强化学习)追踪深度学习几十年的发展史,然后再介绍主流的26个深度学习模型。

    AI研习社
  • 深度 | 能看图回答问题的AI离我们还有多远?Facebook向视觉对话进发

    AI 科技评论按:Facebook AI 研究院(FAIR)日前撰写了一篇长文章,介绍了自己在基于图像的自然语言对话系统方面的研究方向以及现有的研究成果。 图像...

    AI科技评论
  • 关于增强学习你应该了解的五件事儿

    强化学习(Reinforcement Learning)是当前最热门的研究课题之一,它在AlphaGo中大放光彩,同时也变得越来越受科研人员的喜爱。本文主要介绍...

    用户3578099
  • 金融/语音/音频处理学术速递[6.28]

    【1】 Sovereign wealth funds: main activity trends 标题:主权财富基金:主要活动趋势

    公众号-arXiv每日学术速递

扫码关注云+社区

领取腾讯云代金券