尝试在Tensorflow概率中利用DenseVariational层建立贝叶斯神经网络。我的问题是,当我们将参数kl_use_exact设置为False时,我们没有考虑到先前的函数。我试着查看DenseVariational类的源代码(_make_kl_divergence_penalty函数),比以前更加困惑,我没有使用kl_use_exact。
发布于 2022-06-23 07:42:31
kl_use_exact给出了变分后验与先验之间KL-散度的计算方法.
False:KL将被近似。
True:使用实际的KL值。但是,它可以设置为True当且仅当分布之间的KL-散度在TensorFlow概率中注册。
https://stackoverflow.com/questions/72721864
复制相似问题