首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >多智能体游戏的Openai健身环境

多智能体游戏的Openai健身环境
EN

Stack Overflow用户
提问于 2017-06-05 13:19:47
回答 4查看 13K关注 0票数 29

在多智能体游戏中可以使用openai健身环境吗?具体来说,我想用四个玩家(代理)来模拟一个纸牌游戏。得分的玩家将在下一个回合开始。我如何建模玩家之间的必要协调(例如,谁是下一个)?最终,我想使用强化学习来学习四个互相对抗的代理。

EN

回答 4

Stack Overflow用户

回答已采纳

发布于 2019-08-02 15:41:40

是的,在多智能体游戏中可以使用OpenAI健身环境.尽管在多代理环境下的OpenAI健身房社区没有标准化的接口中,构建一个支持这一点的OpenAI健身房是非常容易的。例如,在OpenAI关于多agent粒子环境的近期工作中,继承自gym.Env他们创造了一个多agent环境。采用以下形式:

代码语言:javascript
运行
复制
class MultiAgentEnv(gym.Env):

    def step(self, action_n):
        obs_n    = list()
        reward_n = list()
        done_n   = list()
        info_n   = {'n': []}
        # ...
        return obs_n, reward_n, done_n, info_n

我们可以看到,step函数接受一个操作列表(每个代理一个),并返回一个观察列表、奖励列表、dones列表,同时将环境向前推进。这个接口是马尔可夫博弈的代表,在这个接口中,所有的代理同时采取行动,并且每个人都观察自己的后续观察、奖励。

然而,这种马尔可夫博弈接口并不适用于所有的多智能体环境.特别是,基于转盘的游戏(如纸牌游戏)可能更好地转换为交替的马尔可夫博弈,在这种游戏中,代理一次轮流(即动作)一次。对于这种环境,您可能需要包含哪一个代理处于状态表示中,然后步骤函数只需采取单个操作,并返回一个观察、奖励和完成。

票数 27
EN

Stack Overflow用户

发布于 2017-11-04 10:55:38

OpenAI团队已经实现了一种多agent深确定性策略梯度MADDPG方法。

这是要开始的回购计划。https://github.com/openai/multiagent-particle-envs

票数 1
EN

Stack Overflow用户

发布于 2017-11-18 13:16:56

强化学习这里有一个特定的多agent环境.它支持用任何编程语言编写的任意数量的代理。一个例子游戏已经实现,这恰好是一个纸牌游戏。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/44369938

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档