我理解策略梯度中的操作空间应该是离散的,比如“向上”、“向左”、“不做任何事情”。
我的环境是智能体需要选择一个方向(360度),然后选择步数(10步)。
在这种环境下,智能体可以选择的动作空间中将有3600个不同的动作,这将需要大量的片段来训练智能体,并且会造成资源的浪费。
你能建议我如何处理这种情况吗?
行动空间可以转化为连续的随机变量吗?
发布于 2020-05-22 00:02:20
我认为有了策略梯度,你就不必使用离散的动作,但你可以使用连续变量。只有DQN (深度Q网络/深度Q学习)需要离散动作。(因为在那里你必须从一种可能的动作中选择。
在您的情况下,连续变量可以是:网络输出1(值从0到1)乘以360 =角度网络输出2(值从0到1)乘以10,转换为整数=步数
https://stackoverflow.com/questions/58215691
复制相似问题