腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(29)
视频
沙龙
1
回答
FrozenLake
-v1环境中的渲染问题
、
、
、
我正在使用
FrozenLake
-v1健身房环境测试Q表算法.当我使用默认的映射大小4x4并调用env.render()函数时,我看到了如下所示的图像:但是,当我调用相同的映射大小为8x8的env.render我尝试使用以下两个命令来调用健身房环境: env = gym.make("
FrozenLake
-v1", map_name="8x8链接到
FrozenLake
openai健身环境:
浏览 9
提问于2022-03-03
得票数 1
1
回答
Openai-gym :在冰湖中设置is_slippery=False -v0
在openai-gym中,我想让
FrozenLake
-v0作为确定性问题工作。因此,我需要设置变量is_slippery=False。 如何在初始化环境时将其设置为False?
浏览 7
提问于2017-04-22
得票数 4
1
回答
如何在OpenAI中生成随机冻结湖图?
他们最近增加了生成随机冻结地图的能力。但是没有附带的关于如何使用它的文档。我想在一个正在进行的项目中使用它。
浏览 3
提问于2019-03-05
得票数 2
回答已采纳
3
回答
在使用openAI健身房渲染时获得一个奇怪的输出
、
、
、
我编写了一个简单的python代码来模拟“
FrozenLake
-V0”:env.reset() for _ in
浏览 0
提问于2018-02-04
得票数 1
1
回答
is_slippery参数对结冰环境中的奖励有何影响?
、
、
、
Frozenlake
环境有一个名为is_slippery的参数,如果设置为True,它将沿着预定的方向移动,而概率为1/3,其他环境将在两个方向上以相等的概率1/3向垂直方向移动。
浏览 12
提问于2022-04-09
得票数 0
1
回答
Q学习的收敛时间与深度Q学习
、
、
我想知道深度Q学习与Q学习在同一问题上运行时的收敛时间。谁能告诉我他们之间的模式是什么?如果用图表来解释会更好。
浏览 3
提问于2021-04-26
得票数 0
1
回答
Python错误,在internet上没有结果openai-健身房
、
import gymenv.reset()env.step(1)Something
浏览 18
提问于2022-09-17
得票数 1
回答已采纳
1
回答
同时使用pytest和tf.test.TestCase的问题
、
、
@pytest.mark.parametrize("env", ['
FrozenLake
-v0@pytest.mark.parametrize("env", ['
FrozenLake
-v0', 'CartPole-v1',
浏览 0
提问于2018-12-18
得票数 3
2
回答
OpenAI健身房的env.step():值是什么?
、
、
我正在了解OpenAI的健身房(0.25.1),它使用Python3.10,将健身房的环境设置为'
FrozenLake
-v1 (下面的代码)。完整代码: env = gym.make('
FrozenLake
-v1', new_step_api=True, render_mode='ansi') # build environment
浏览 72
提问于2022-08-01
得票数 5
回答已采纳
2
回答
我们需要健身房环境中的“元数据”字段做什么?
、
例如,在
FrozenLake
环境中,被定义为但是,该属性/字段metadata从未在该文件中使用。
浏览 18
提问于2020-11-04
得票数 2
1
回答
在
FrozenLake
练习中用NN近似Q函数
、
、
、
、
np import randomfrom IPython.display import clear_output env = gym.make("
FrozenLake
-v0
浏览 4
提问于2020-03-19
得票数 2
0
回答
FrozenLake
Q-学习更新问题
、
、
: N_ITER = 1000 # Setup the Maze: env = gym.make('
FrozenLake
-v0
浏览 4
提问于2017-11-26
得票数 0
回答已采纳
1
回答
ImportError:无法从“gym.wrappers”导入名称“监视器”
、
、
我刚开始玩Atari游戏,但下面的代码出现了一个重要错误-env = gym.make('
FrozenLake
-v1') videosDir = '.
浏览 118
提问于2022-03-18
得票数 3
1
回答
python OpenAI健身房监视器在录制目录中创建json文件
、
、
、
、
这是我的代码:env = gym.wrappers.Monitor(env, 'recording', force=True) env.seed
浏览 2
提问于2018-10-04
得票数 7
3
回答
列出openai健身房的所有环境标识
、
、
如何列出所有当前注册的环境in (因为它们用于创建环境)?不要和atari-py的游戏名称混淆。
浏览 0
提问于2018-02-26
得票数 20
回答已采纳
2
回答
戴娜-Q怎么了?(Dyna-Q对Q-学习)
、
、
我实现了Q-学习算法,并在OpenAI健身房的
FrozenLake
-v0上使用.在10000集的测试中,我得到了185个总奖励和7333个总奖励。这个好吗?# Setuplr_rate = 0.1planning_steps = 0
浏览 3
提问于2020-05-14
得票数 0
1
回答
Q-learning,测试集计数对收敛的影响是什么?
、
、
在下面的代码中,这是通过Q学习求解
FrozenLake
4x4的代码。在训练部分,为什么我们要在测试环境中播放20集,而不是每个循环中只播放1集?import gymfrom tensorboardX import SummaryWriter GAMMA
浏览 13
提问于2019-01-16
得票数 1
1
回答
FrozenLake
Openai游戏中使用DQN算法时的错误
、
、
、
、
我试图使一个非常简单的DQN算法工作与
FrozenLake
-v0游戏,但我得到了错误。我知道使用DQN而不是Q表可能是过度使用,但我还是希望它能发挥作用。以下是代码:import numpy as np n_actions
浏览 3
提问于2020-07-30
得票数 0
回答已采纳
1
回答
Keras代码错误- Q-learning OpenAI健身房
FrozenLake
、
、
、
、
keras import backend as K %matplotlib inline env = gym.make('
FrozenLake
-v0
浏览 0
提问于2017-08-25
得票数 6
2
回答
如何在没有中间奖励的情况下解决
FrozenLake
OpenAI-Gym环境?
我正在看openai- 中的健身房。在这两种情况下,在智能体达到目标之前,都没有奖励,甚至没有负奖励。即使智能体掉进了冰层,也不会有负面的奖励--尽管这一集结束了。没有奖励,什么也学不到!每一集都是从头开始的,没有从之前的几集中受益。我遗漏了什么?RL如何在没有奖励的情况下解决这个问题(除了通过随机搜索)?
浏览 0
提问于2018-07-09
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
100行的神经网络增强学习游戏实践
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券