首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >actor-critic模型中的共享参数是如何工作的?

actor-critic模型中的共享参数是如何工作的?
EN

Stack Overflow用户
提问于 2019-05-26 19:09:36
回答 1查看 2.8K关注 0票数 1

大家好,StackOverflow社区!

我有一个关于强化学习中的Actor-Critic模型的问题。

在听Berkeley大学的策略梯度方法类时,在讲座中提到,在使用一些策略参数优化策略和使用一些值函数参数优化值函数的actor-critic算法中,在一些算法(例如A2C/A3C)中,我们在两个优化问题中使用相同的参数(即策略参数=值函数参数)。

我不能理解这是如何工作的。我在想,我们应该分别优化它们。这个共享参数解决方案对我们有什么帮助?

提前感谢:)

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-05-27 07:57:09

您可以通过共享其网络的部分(或全部)层来实现此目的。然而,如果你这样做了,你就假设有一个公共的状态表示(中间层输出)是最优的w.r.t。两者都有。这是一个非常有力的假设,通常不成立。它已被证明适用于从图像中学习,例如,您在演员和评论家网络的顶部放置(例如)自动编码器,并使用它们的损失函数的总和对其进行训练。

这是在PPO paper中提到的(就在等式之前。(9))。然而,他们只是说他们共享的层只是为了学习Atari游戏,而不是为了连续的控制问题。他们没有说为什么,但这可以解释如我上面说的: Atari游戏有一个低维的状态表示,对于演员和评论家来说都是最优的(例如,自动编码器学习的编码图像),而对于连续控制,你通常直接传递一个低维的状态(坐标,速度,...)。

您提到的A3C也主要用于游戏(我认为是末日)。

根据我的经验,在控制共享层中,如果状态已经是紧凑的,那么共享层永远不会起作用。

票数 4
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56312962

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档