前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >KL距离与JS散度

KL距离与JS散度

作者头像
生信编程日常
发布2020-08-20 09:57:41
3K0
发布2020-08-20 09:57:41
举报
文章被收录于专栏:生物信息学、python、R、linux
1. Kullback-Leibler Divergence

KL距离,即Kullback-Leibler Divergence,也被成为信息熵(Relative Entropy)。一般KL距离用来衡量同意事件中,两种概率分布的相似程度,这个值越小,则相似程度越高。

计算的实例: 我们抛两枚硬币,真实的概率为A,但是我们只能通过观察得到B和C,如下所示。 A(0) = 1/2, A(1) = 1/2; B(0) = 1/4, A(1) = 3/4; C(0) = 1/8, C(1) = 7/8;

进一步计算A与B和C的KL距离: D(A||B) = (1/2)log((1/2)/(1/4)) + (1/2)log((1/2)/(3/4)) = 1/2log(4/3) D(A||C) = (1/2)log((1/2)/(1/8)) + (1/2)log((1/2)/(7/8)) = 1/2log(16/7)

可以看到,B比C更接近与实际的A分布。

需要注意的是,KL距离虽然叫做距离,但是并不是真正的距离,不符合距离的对称性和三角不等式。

2. Jensen-Shannon divergence

JS散度是基于KL距离提出的改进,取值在0到1之间:

JS散度是对称的并且取值在0-1之间,另外,KL与JSD都存在一个问题,在很极端的情况下,KL值没有意义,JSD会趋于一个常数,这样在算法中梯度变为了0.

欢迎关注!

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. Kullback-Leibler Divergence
  • 2. Jensen-Shannon divergence
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档