首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >策略梯度操作维度

策略梯度操作维度
EN

Stack Overflow用户
提问于 2019-10-03 17:01:31
回答 1查看 49关注 0票数 0

我理解策略梯度中的操作空间应该是离散的,比如“向上”、“向左”、“不做任何事情”。

我的环境是智能体需要选择一个方向(360度),然后选择步数(10步)。

在这种环境下,智能体可以选择的动作空间中将有3600个不同的动作,这将需要大量的片段来训练智能体,并且会造成资源的浪费。

你能建议我如何处理这种情况吗?

行动空间可以转化为连续的随机变量吗?

EN

回答 1

Stack Overflow用户

发布于 2020-05-22 00:02:20

我认为有了策略梯度,你就不必使用离散的动作,但你可以使用连续变量。只有DQN (深度Q网络/深度Q学习)需要离散动作。(因为在那里你必须从一种可能的动作中选择。

在您的情况下,连续变量可以是:网络输出1(值从0到1)乘以360 =角度网络输出2(值从0到1)乘以10,转换为整数=步数

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/58215691

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档