腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(22)
视频
沙龙
1
回答
获取错误:模块'gym‘没有属性'make’
python
、
openai-gym
我正在尝试运行他们的
OpenAI-gym
官方文档中提供的一个基本的
OpenAI-gym
程序: import gymobservation
浏览 233
提问于2020-01-04
得票数 4
回答已采纳
1
回答
Openai-gym
:在冰湖中设置is_slippery=False -v0
openai-gym
在
openai-gym
中,我想让FrozenLake-v0作为确定性问题工作。因此,我需要设置变量is_slippery=False。 如何在初始化环境时将其设置为False?
浏览 7
提问于2017-04-22
得票数 4
1
回答
谷歌RL足球模拟器的记录屏幕
python
、
reinforcement-learning
、
openai-gym
在用基于
openAI-Gym
的google's football simulator模拟足球比赛的时候,我试着录下屏幕。
浏览 25
提问于2020-12-06
得票数 0
1
回答
我可以直接从Box2D实体获取加速度测量吗?(Python) (Box2D)
python
、
box2d
、
openai-gym
我正在使用
OpenAI-Gym
环境赛车-V0,它基于Box2D物理库。通过env.car.hull,我可以访问位置,角度,速度,但不能访问加速度。
浏览 18
提问于2021-06-09
得票数 0
回答已采纳
1
回答
使用无外部库的Q学习模型
python
、
machine-learning
、
keras
、
openai-gym
、
q-learning
我计划使用
openai-gym
和keras库来训练我的模型,但我希望有一种方法可以保存我的模型并使用它,而不使用open-gym和keras库(在它被训练之后)。
浏览 2
提问于2019-04-08
得票数 0
1
回答
具有负值的
OpenAi-Gym
离散空间
python
、
python-3.x
、
reinforcement-learning
、
openai-gym
我已经创建了一个自定义的健身房环境,其中的动作可以是-100到+100之间的任何整数。据我所知,不可能创建一个允许负值的离散空间,我提供的唯一解决方案是创建一个从-100到+100的Box空间(请注意,这是一个连续的空间)。在健身房里有可能有一个允许负值的离散空间吗?
浏览 22
提问于2019-11-13
得票数 2
回答已采纳
2
回答
为什么剧集是在200个时间步长后完成的(健身房环境MountainCar)?
python
、
openai-gym
在Python中使用
OpenAI-gym
中的MountainCar-v0环境时,完成的值将在200个时间步长后为真。为什么会这样呢?因为没有达到目标状态,所以不应该做这一集。
浏览 0
提问于2017-03-14
得票数 13
回答已采纳
1
回答
并行运行
openai-gym
环境
python
、
parallel-processing
、
openai-gym
、
ray
以下代码摘自https://bair.berkeley.edu/blog/2018/01/09/ray/。 import gym class Simulator(object): self.env = gym.make("Pong-v0") return self.env.step(action) # Create a simulator, this will s
浏览 37
提问于2019-01-10
得票数 3
回答已采纳
1
回答
如何渲染丹瑟力的环境?
python
、
reinforcement-learning
、
implementation
from tensorforce.environments import Environment # Create an
OpenAI-Gym
浏览 0
提问于2020-04-30
得票数 1
1
回答
Pygame和开放AI实现
python
、
python-3.x
、
reinforcement-learning
、
openai-gym
我和我的同学决定尝试在我们自己的游戏中实现和AI代理。我的朋友已经根据以前的项目完成了大部分代码,我想知道PyGame和OpenAI将如何协同工作。我试着做了一些研究,但找不到关于这个特定主题的任何有用的信息。有些人说它很难实现,但有些人说它是有效的。不管怎样,我想听听你对这个项目的看法,以及如果是你的话你会怎么做。 import pygame
浏览 18
提问于2019-11-21
得票数 3
回答已采纳
1
回答
OpenAI-Gym
中的定制环境
development-environment
、
reinforcement-learning
、
openai-gym
我想试用Python中的强化学习。但我想为我自己的国家和奖励创造一个定制的环境。所以我首先要做一个定制的环境,有人能帮我吗?
浏览 0
提问于2019-02-21
得票数 2
2
回答
如何在
openai-gym
环境中使用“离散”对象?
python
、
openai-gym
我正在尝试为
openai-gym
"Blackjack-v0“环境创建一个Q-Learning代理。我试图得到观察空间的大小,但它是以“元组”和“离散”对象的形式出现的。
浏览 53
提问于2019-05-03
得票数 0
1
回答
创建新的
openai-gym
环境时导入内容
openai-gym
以gym_soccer为例,当我导入gym_soccer时,它是一个包装的ENV。在soccer_env.py中定义的类不会出现。我认为应该有一种方法让它工作,但找不到。 soccer_env.py import gymlogger = logging.getLogger() pass pass 当你在python中运行它时: import gym_soccer['__builtins__', '
浏览 18
提问于2019-05-22
得票数 0
1
回答
openai-gym
pong:如何让reset()更具随机性
reinforcement-learning
、
openai-gym
、
pong
我实现了一个dqn代理,经过几个小时的学习,奖励稳定在20-21。这是健身房乒乓球环境的行为吗?如何使env重置更具随机性?我正在使用NoopResetEnv包装器,它没有任何帮助!
浏览 2
提问于2019-10-07
得票数 1
1
回答
如何实现使用图像作为观察的2D
OpenAI-Gym
环境?
python
、
openai-gym
我需要用一个机器人手臂和一个目标点的基本模型来创建一个2D环境。我希望手臂通过一系列离散的动作(例如,向右、向左、向上和向下)到达目标,并且我需要观察空间是屏幕的RGB图像,然后将其用作DQN的输入。 我的问题是,我不明白如何使用图像观察来移动机器人,并获得其手臂和目标的位置(例如,根据它们的距离创建奖励函数)。 看起来我唯一可以从健身房环境中获得灵感的是Atari的环境,但我找不到单个游戏的具体代码,可能是因为它们嵌入在ROM中。 那么,如果我想在健身房中学习Atari环境的例子并使用atari_env.py,这是否意味着我也需要创建一个游戏及其ROM,然后将其集成到Stella中?还是有
浏览 28
提问于2020-08-28
得票数 1
2
回答
如何在没有中间奖励的情况下解决FrozenLake
OpenAI-Gym
环境?
openai-gym
我正在看openai- 中的健身房。在这两种情况下,在智能体达到目标之前,都没有奖励,甚至没有负奖励。即使智能体掉进了冰层,也不会有负面的奖励--尽管这一集结束了。没有奖励,什么也学不到!每一集都是从头开始的,没有从之前的几集中受益。我遗漏了什么?RL如何在没有奖励的情况下解决这个问题(除了通过随机搜索)?
浏览 0
提问于2018-07-09
得票数 4
1
回答
如何使用
OpenAi-Gym
和Scoop产生可重现的随机性?
random
、
concurrency
、
python-3.8
、
openai-gym
、
python-scoop
如何使用
OpenAi-Gym
和Scoop产生可重现的随机性? 我希望每次重复这个例子时都能得到完全相同的结果。
浏览 97
提问于2020-05-19
得票数 1
回答已采纳
1
回答
openai-gym
经典控件在centos服务器上的渲染问题
jupyter-notebook
、
openai-gym
我正在玩RL colab,它使用健身房的CartPole-v0。我通过连接到远程centOS 7.3服务器(而不是谷歌驱动器)的jupyter打开了iPython笔记本。下面的代码在google colab下正确地呈现了cartpole图,但在我的jupyter设置下却不正确: !pip install gym[classic_control]env = gym.make('CartPole-v0')img = env.render('rgb_array') plt.imshow(img) 下面是我如何开始我的
浏览 40
提问于2020-10-26
得票数 0
2
回答
如何防止内存泄漏?
python
、
c++
、
c++14
、
openai-gym
、
python-3.10
我已经安装了
OpenAI-Gym
版本0.22.0。
浏览 9
提问于2022-03-16
得票数 1
回答已采纳
2
回答
OpenAI-Gym
和Keras-RL: DQN期望每个动作都有一个一维的模型。
python
、
keras
、
reinforcement-learning
、
openai-gym
我正试图在OpenAI健身房中设置一个具有自定义环境的深度Q学习代理.我有4个连续状态变量和3个具有个体限制的整数作用变量。#%% import from gym.spaces import Discrete, Box, Tuple class Custom_Env(Env): s
浏览 21
提问于2021-12-07
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
平价训练AI机器人:谷歌大脑&伯克利联合推出低成本机器人训练平台ROBEL
清华博士解读 AlphaGo 战胜李世石背后的黑科技
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券