腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1489)
视频
沙龙
1
回答
深度
强化
学习
(
keras-rl
)
提前
停止
、
、
、
、
根据这些人(https://nihit.github.io/resources/spaceinvaders.pdf)的说法,使用
深度
强化
学习
可以
提前
停止
。我之前在Keras上使用过Deep Learning,但是,如何在
keras-rl
上做到这一点?在相同的fit()函数中还是在将模型发送给代理之前?
浏览 47
提问于2019-06-05
得票数 0
回答已采纳
1
回答
Anaconda如何导入
keras-rl
、
、
、
、
我已经用Ananconda安装了keras和许多其他用于
深度
学习
的东西,但现在我想尝试用
强化
学习
来做一些事情。所以我读到我需要安装
keras-rl
,我按如下方式安装了它: git clone https://github.com/matthiasplappert/keras-rl.git cd
keras-rl
提前
感谢您的回复!
浏览 34
提问于2020-05-03
得票数 2
回答已采纳
1
回答
为什么
keras-rl
示例总是在输出层选择线性激活?
、
、
我完全是
强化
学习
的新手。我有一个关于
keras-rl
代理的输出层的激活函数的选择的问题。在
keras-rl
()提供的所有示例中,在输出层选择线性激活函数。为什么会这样呢?
提前
谢谢你。
浏览 17
提问于2017-08-04
得票数 4
回答已采纳
2
回答
OpenAI-Gym和
Keras-RL
: DQN期望每个动作都有一个一维的模型。
、
、
、
我正试图在OpenAI健身房中设置一个具有自定义环境的
深度
Q
学习
代理.我有4个连续状态变量和3个具有个体限制的整数作用变量。env.action_space.shape ) print(model.summary()) #%% Build Agent wit
Keras-RL
浏览 21
提问于2021-12-07
得票数 2
回答已采纳
1
回答
为什么深层
强化
学习
不能学会如何玩小行星?
、
、
深入的Q-
学习
,A3C,政策进化的遗传算法,他们都没有
学习
小行星,或至少表现比人类差得多。根据RL的说法,从最艰难的Atari游戏来看,大部分的焦点都集中在蒙特祖马的复仇上,这显然受到了很少的奖励。以下是一些报告小行星上的坏结果的论文(有些文章互相引用):
深度
强化
学习
的大规模并行
学习
方法基于
深度<
浏览 0
提问于2018-02-16
得票数 3
回答已采纳
7
回答
如何实现
深度
强化
学习
(DQN)?
、
、
DQN(Deep Q-Learning)可谓是
深度
强化
学习
(Deep Reinforcement Learning,DRL)的开山之作,是将
深度
学习
与
强化
学习
结合起来从而实现从感知(Perception)到动作( Action )的端对端(End-to-end)
学习
的一种全新的算法 ,该如何实现
深度
强化
学习
(DQN)呢?
浏览 3423
提问于2018-10-10
2
回答
为什么要将马尔可夫性质引入
强化
学习
?
、
、
作为
深度
强化
学习
的初学者,我很困惑为什么我们应该在
强化
学习
中使用马尔可夫过程,以及它给
强化
学习
带来了什么好处。另外,马尔可夫过程要求在“已知”条件下,“现在”与“未来”无关。为什么一些
深度
强化
学习
算法可以使用RNN和LSTM?这是否违反了马尔可夫过程的假设?
浏览 4
提问于2020-12-23
得票数 0
1
回答
强化
学习
-从原始像素
学习
、
为了进一步了解这些知识,我想探讨一下代理如何从原始像素中
学习
,并尝试使用H2O实现一个示例。我想使用Java。 但是,我仍然需要弄清楚如何使用Java从游戏中流出图像像素,以帮助h2o RL代理
学习
。示例主要使用R和Python。
浏览 7
提问于2017-05-08
得票数 0
回答已采纳
1
回答
并行Q-
学习
、
、
、
、
我正在寻找学术论文或其他可信的来源,侧重于平行
强化
学习
的主题,特别是Q-
学习
。我最感兴趣的是在进程之间共享Q表的方法(如果每个进程都有自己的进程,则将它们连接/同步在一起)。
浏览 0
提问于2016-01-14
得票数 4
2
回答
为了编写一个简单的人工智能程序来玩游戏,我需要什么知识?
、
、
、
、
我的课程之一是“机器
学习
入门”,我一直想在这门课上做一个个人项目。为了训练一个简单的人工智能程序来玩游戏,我需要获得什么知识?这是我目前在机器
学习
中所知道的-统计推断可能是近似正确的模型,包括泛化界和模型选择。支持向量机(SVM)促进弱
学习
者向强
学习
者
学习
: AdaBoost回归决策树 决策树修剪与随机林
浏览 0
提问于2017-01-04
得票数 9
回答已采纳
1
回答
如何在keras/ OpenAI健身房中实现自定义环境?
、
、
、
我是一个完整的新手,
强化
学习
,并一直在寻找一个框架/模块,以轻松地浏览这个危险的地形。在我的搜索中,我遇到了两个模块&
keras-rl
& OpenAI健身房。
浏览 2
提问于2017-06-10
得票数 12
回答已采纳
1
回答
如何在Anaconda中安装
keras-rl
、
、
、
、
我正在开始研究
强化
学习
模型,但目前我被阻止了,因为我还无法下载一个必要的python包:
keras-rl
。
浏览 178
提问于2020-11-16
得票数 0
3
回答
强化
学习
工具
Tensorforce、Kerasrl和chainerrl用于
强化
学习
的区别是什么?据我所知,这三种方法都与OpenAI健身房环境有关,并且具有相同的
强化
学习
算法。在表现上有什么不同吗?
浏览 1
提问于2018-09-10
得票数 1
2
回答
强化
学习
算法
、
我想用
强化
学习
机器
学习
的方法来研究和开发一些应用。我已经熟悉使用监督
学习
的分类问题。谢谢!
浏览 0
提问于2021-11-15
得票数 0
回答已采纳
1
回答
深度
强化
学习
、
我正在使用一种
深度
强化
学习
方法来导航一个agent从一个初始点到一个目标点。现场还有其他因素和障碍。我没有找到如何创建dataset,如何使用我前面提到的3个元素。 有人能帮帮我吗!
提前
谢谢!
浏览 2
提问于2020-03-19
得票数 0
1
回答
调整评估函数的权重
、
我有有限的时间和硬件,所以我的问题是:在评估的质量方面,基于使用较低
深度
搜索获得的结果执行“训练”和调整权重是否非常糟糕,而不是当AI在有更多时间并因此可以在更深层次上搜索游戏树的情况下必须表现最佳时使用的结果
浏览 0
提问于2011-03-21
得票数 0
3
回答
在
深度
强化
学习
中,神经网络的设计是否有经验法则?
、
、
在深入
学习
中,我们可以用损失函数值来评估模型的性能,并通过K倍交叉验证等方法来提高模型的性能。但是,如何设计和优化神经网络在
深度
强化
学习
中的应用呢?我们可以用奖励等来评估
强化
学习
算法本身的性能,但是如何保证神经网络在
强化
学习
算法中的应用是好的还是坏的呢?
浏览 0
提问于2019-02-08
得票数 3
2
回答
如何在python中调用Javascript函数?
、
、
我正在尝试用电子学和
深度
强化
学习
来做一个蛇的游戏。我用python和Javascript做的
强化
学习
的东西。现在我如何在python中调用这样的函数呢?
浏览 3
提问于2020-03-20
得票数 0
1
回答
如何用不同的模型对基于DQN的
深度
神经网络进行
强化
学习
?
、
、
、
如果不使用深层神经网络(DNN)来实现
强化
学习
算法,比如
深度
Q-网络(DQN),可以实现吗?在下面的DQN伪码中,如果我想用另一种无监督算法替换DNN部分,它可能吗?
浏览 0
提问于2018-08-31
得票数 3
1
回答
如何在不杀灭外部bot工艺的情况下重置仿真
我试着用
keras-rl
在Webots中使用
强化
学习
,但是用监督机器人重置世界会杀死整个python过程。有没有一种方法可以在不破坏过程的情况下重置模拟?
浏览 0
提问于2019-09-03
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习入门/深度强化学习课程
深度学习与强化学习
深度强化学习简介
深度强化学习-DQN
深度学习第57讲:深度强化学习与深度Q网络
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券