腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(40)
视频
沙龙
3
回答
Keras-rl
中的Keras LSTM层
、
、
、
我正在尝试使用
Keras-rl
实现一个DQN代理。
浏览 104
提问于2020-01-22
得票数 0
回答已采纳
3
回答
导入
keras-rl
包到conda环境
、
、
、
、
我已经按照他们的说明在我的电脑上安装了包:cd
keras-rl
所以我的conda环境可以看到这个包,但是当我试图将它作为代码的一部分导入Spyder时,例如import
keras-rl
,我得到了以下错误:使用指向
keras-rl
的短划线的指针。问:如何在Spyder中导入<em
浏览 72
提问于2017-01-23
得票数 2
1
回答
为什么在安装keras之后会出现ModuleNotFound错误?
、
、
、
我这么做是为了学习DQN。我确信我已经安装了keras,因为当我输入命令提示符pip install keras时,我得到的只有Requirement is Already Satisfied。from dqn_agent import DQNAgentfrom datetime import datetimeimport randomfrom tqdm import tqdm 获取
浏览 2
提问于2020-08-18
得票数 0
1
回答
如何使用
keras-rl
进行多智能体训练
、
、
我正在尝试使用
keras-rl
,但使用的是多智能体环境。因此,我找到了这个,它的想法是为所有agents使用共享环境。不幸的是,我没有设法让它工作。似乎在这样的上下文中使用健身房环境是可能的,我只是没有设法让它与
keras-rl
一起工作。有人知道怎么做吗?
浏览 8
提问于2017-11-09
得票数 3
1
回答
如何修复错误:'tensorflow.compat.v2.__internal__‘没有'register_call_context_function’属性
、
、
在过去的一周里,我到处寻找答案,但都没有奏效。我有一台M1 Mac,我想开始用它来进行强化学习。我遵循了一些关于如何在M1 Mac上安装TensorFlow和Keras的教程。 以下是安装的版本: Tensor Flow Version: 2.5.0[Clang 11.1.0 ]Scikit-Learn 0.24.2 GPU is available 当我尝试为rl代理导
浏览 115
提问于2021-09-03
得票数 1
1
回答
在哪里可以找到已实现的DQfDAgent?
、
、
、
(更新1)pip install -e git+git://github.com/jakegrigsby/keras-rl.git#egg=
keras-rl
Command"git clone -q git://github.com/jakegrigsby/keras-rl.git C:\Users\myuser\src\
keras-rl
" failed with error
浏览 0
提问于2019-03-12
得票数 0
回答已采纳
1
回答
为什么
keras-rl
示例总是在输出层选择线性激活?
、
、
我有一个关于
keras-rl
代理的输出层的激活函数的选择的问题。在
keras-rl
()提供的所有示例中,在输出层选择线性激活函数。为什么会这样呢?如果我使用不同的激活函数,我们会有什么效果?
浏览 17
提问于2017-08-04
得票数 4
回答已采纳
1
回答
使用keras的带有LSTM的A3C
、
、
我正在尝试使用keras实现一个带有LSTM的A3C模型,我开始使用这个不带LSTM的A3C版本:"",并尝试只修改网络代码,但我很难编译整个模型:这是我的模型:vision_model.add(Conv2D(activation="relu", filters=16, kerne
浏览 3
提问于2018-03-30
得票数 0
2
回答
openai健身房-什么是我可以使用的多离散动作空间的代理?
、
、
、
121 121 121 121我很难找到一个能够处理这些空间的代理(例如
keras-rl
这个问题:https://github.com/
keras-rl
/
keras-rl
/issues/224表示
keras-rl
DDPG代理能够处理多个离散的操作空间,但是模型有一个浮点输出,我不能将它用作
浏览 0
提问于2019-07-03
得票数 2
回答已采纳
1
回答
健身房(openAI)环境动作空间取决于实际状态
、
、
我正在使用gym工具包创建我自己的env和
keras-rl
,以便在代理中使用我的env。问题是我的操作空间会发生变化,它取决于实际的状态。我不能理解agent (
keras-rl
,dqn agent)如何选择一个动作,它是随机选择的吗?但是从哪里来呢? 有人能帮帮我吗?想法?
浏览 13
提问于2018-10-24
得票数 5
1
回答
在我的MAC M1空气中建立深度强化学习环境
、
、
、
、
Build Agent with
Keras-RL
from rl.policy import BoltzmannQPolicy
浏览 1
提问于2021-05-28
得票数 1
回答已采纳
1
回答
如何实时运行和渲染健身房Atari环境,而不是加速?
、
、
、
、
我正在使用Gym Atari和Tensorflow,以及Windows上的
Keras-rl
。语言是python。
浏览 3
提问于2019-08-17
得票数 1
1
回答
Anaconda如何导入
keras-rl
、
、
、
、
所以我读到我需要安装
keras-rl
,我按如下方式安装了它: git clone https://github.com/matthiasplappert/keras-rl.git cd
keras-rl
浏览 34
提问于2020-05-03
得票数 2
回答已采纳
1
回答
Python强化学习-元组观察空间
、
、
、
、
我很幸运地使用
keras-rl
训练了一个代理,特别是DQNAgent,但是
keras-rl
没有得到足够的支持,而且文档也很少。对于可以处理这种观察空间的RL包,有什么建议吗?
浏览 73
提问于2019-10-09
得票数 4
回答已采纳
2
回答
无法在jupyter笔记本中导入
keras-rl
、
、
我一直在尝试将kera-rl导入到我的jupyter笔记本中,但每次尝试都会遇到这个错误。如何停止获取此错误?
浏览 44
提问于2019-10-21
得票数 0
1
回答
深度强化学习(
keras-rl
)提前停止
、
、
、
、
我之前在Keras上使用过Deep Learning,但是,如何在
keras-rl
上做到这一点?在相同的fit()函数中还是在将模型发送给代理之前?
浏览 47
提问于2019-06-05
得票数 0
回答已采纳
1
回答
Keras-rl
ValueError“模型有多个输出,DQN期望模型有一个输出”
、
、
、
、
有什么办法可以避免这个错误吗?我有一个具有15x15输入网格的模型,这将导致两个输出。每个输出有15个可能的值,它们是x或y坐标。我这么做是因为它比网格上的每个位置都有225个单独的输出要简单得多。问题是,当我尝试使用以下代码来训练模型时: policy = BoltzmannQPolicy() dqn = DQNAgent(model=model, memory=memory,policy=policy,n
浏览 20
提问于2022-06-09
得票数 0
回答已采纳
1
回答
在我的M1 Macbook Pro上设置keras-rl2
、
、
、
我将
keras-rl
安装为pip install
keras-rl
,但正如许多人提到的那样,它导致了一个错误: TypeError: Keras symbolic inputs/outputs do
浏览 27
提问于2022-04-05
得票数 2
回答已采纳
2
回答
OpenAI-Gym和
Keras-RL
: DQN期望每个动作都有一个一维的模型。
、
、
、
env.action_space.shape ) print(model.summary()) #%% Build Agent wit
Keras-RL
浏览 21
提问于2021-12-07
得票数 2
回答已采纳
1
回答
如何在keras/ OpenAI健身房中实现自定义环境?
、
、
、
在我的搜索中,我遇到了两个模块&
keras-rl
& OpenAI健身房。
浏览 2
提问于2017-06-10
得票数 12
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券