前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >熵、交叉熵和散度,这是一篇最纯碎的理解!

熵、交叉熵和散度,这是一篇最纯碎的理解!

作者头像
double
发布2019-11-14 17:13:59
7290
发布2019-11-14 17:13:59
举报
文章被收录于专栏:算法channel算法channel

全文共 4351 字,23 幅图,

预计阅读时间 22 分钟。

本文是「小孩都看得懂」系列的第八篇,本系列的特点是极少公式,没有代码,只有图画,只有故事。内容不长,碎片时间完全可以看完,但我背后付出的心血却不少。喜欢就好!

  1. 小孩都看得懂的神经网络
  2. 小孩都看得懂的推荐系统
  3. 小孩都看得懂的逐步提升
  4. 小孩都看得懂的聚类
  5. 小孩都看得懂的主成分分析
  6. 小孩都看得懂的循环神经网络
  7. 小孩都看得懂的 Embedding
  8. 小孩都看得懂的熵、交叉熵和 KL 散度

本文被以下三份资料所启发,纯纯的致敬!

  • [Christopher Colah] - Visual Information Theory
  • [Aurélien Géron] - A Short Introduction to Entropy, Cross-Entropy and KL-Divergence
  • [Luis Serrano] - Shannon Entropy and Information Gain

这次还拿马赛克队的哈登来举例 。

1

主题:物理概念的熵

熵(entropy)是物理中的一个概念。如下图,水有三种状态:固态、液态和气态,分别以冰、水和水蒸气的形式存在。

它们具有不同的熵值:

  • 冰中的分子位置固定,处于稳定状态,因此冰具有低熵值
  • 水中的分子相对可以进行一些移动,因此水具有中熵值
  • 水蒸气中的分子几乎可以移动到任何地方,因此水蒸气具有高熵值

现在你大体有个感觉,越不稳定的东西具有的熵值越大

世界处处充满不确定性,从不确定到确定肯定是得到了额外的信息。从计算机专业术语来讲,比特(BIT, Binary Digit)是衡量信息的单位。

讲到这里小孩可能听不懂了,那么就先不严谨的认为,比特可用 0 或 1 代表,而

传递 1 比特信息 = 将不确定性减半

2

主题:等概率事件的信息量

从物理切换到体育,假设马赛克队的哈登每次进攻,50% 机会投篮,50% 的机会灌篮,如下图所示。

如果我预测他会投篮,或他会灌篮

=>

我都把两种情况减少到了一种情况,

=>

我将不确定性减半

=>

我发出 1 比特的信息

计算公式

log2(2) = log2(1/50%) = 1

咦?信息(1 比特)和概率(50%)联系起来了。

类比一下:

  • 2 种情况,每种发生的概率是 1/2 = 1/21,预测任意一种情况发出 1 比特信息
  • 4 种情况,每种发生的概率是 1/4 = 1/22,预测任意一种情况发出 2 比特信息
  • 8 种情况,每种发生的概率是 1/8 = 1/23,预测任意一种情况发出 3 比特信息 ...
  • 2N 种情况,每种发生的概率是 1/2N,预测任意一种情况发出 N 比特信息

3

主题:不等概率事件的信息量

等概率发生的事件理解起来容易,那如果哈登每次进攻,75% 机会投篮,25% 的机会灌篮呢?如下图所示。

这时我们可以把它等价想象成有四个事件,3 个投篮事件和 1 个灌篮事件。

那么

  • 如果我预测投篮,相当于把 4 个事件的不确定性变成到 3 个事件的不确定性,放缩程度是 4/3,也正好是 1/75%,这时我发出了 log2(4/3) = 0.42 个比特信息
  • 如果我预测灌篮,相当于把 4 个事件的不确定性编程到 1 个事件的确定性,放缩程度是 4/1,也正好是 1/25%,这时我发出了 log2(4) = 2 个比特信息

如果平均来看,

75%×0.42 + 25%×2 = 0.81

我发出的信息量是 0.81 比特。

4

主题:熵 = 平均信息量

现在我们可以归纳一下,对于有 p 概率发生的事件,预测该事件发生等价于发出 log2(1/p) 比特信息,因为 log2(1/x) = - log2(x),我们可以将信息量写成

信息量 = - log2(p)

考虑到所有事件,平均信息量的公式为(期望公式)

平均信息量 = -∑i pi×log2(pi)

平均信息量就是信息论中的熵!用符号 H(p) 表示(粗体 p 代表 p1, p2, ..., pn),因此我们有

H(p) = -∑i pi×log2(pi)

5

主题:等概率事件编码

某天我在客户那边做项目,看不了 NBA 直播,只能通过在美国的朋友小明发短信直播,他会告诉我哈登每次进攻的手段:三分、上篮、灌篮、两分。

但是小明用二进制密码和我交流,我收到的短信是下面这样子的:

0 1 0 0 1 0 0 0

为了理解短信的真实含义,我需要一个解码表,如下:

这样,我就可以把小明传的密码分段,然后将每段密码在解码表中找到对应的动作,因此 01001000 就解码成上篮三分灌篮三分

假设哈登两分、三分、上篮、灌篮这四个动作是等概率发生,那面我们可以给编码长度(横轴)和动作频率(纵轴)做一个可视化,如下图。

图中彩色面积之和就表示每次短信说一个动作所需要的密码的期望长度,显然在这种情况下,期望长度为 2 比特。

6

主题:不等概率事件编码

如果哈登进攻手段(两分、三分、上篮、灌篮)不是等概率发生呢?我们知道哈登最喜欢投三分(1/2 时间),再就是上篮(1/4 时间),而投两分(1/8 时间)和上篮(1/8 时间)比较少。

每个动作我们还是用长度为 2 的密码编码时,那么最后得到的期望长度还是 2 比特,如下图所示。

你要知道从小明美国从发短信很贵啊,按编码长度收钱的,他可以做的更好一点么(即编码更短一些)?先看下图。

现在每次短信的期望密码长度变成了 1.75 比特,好过 2 比特。

其实我们做法很简单,就

  • 对于频率高的动作(三分),我们用短编码(0)
  • 对于频率低的动作(两分),我们用短编码(111)

因此上面上篮三分灌篮三分的编码为 10 0 111 100

问题来了,当解码的时候,我怎么把这一串编码拆分为对应到每个动作的一个个编码呢?如果每个动作的编码长度都一样,我那还可以等分,但现在每个每个动作的编码长度都不一样。

别问,问就是下节告诉你(尽管不情愿)!

7

主题:信息论

正式了解一下编码:

  • 长度为 1 的编码有 2 个:{0, 1}
  • 长度为 2 的编码有 4 = 22 个:{00, 01, 10, 11} ...
  • 长度为 N 的编码有 2N 个:{太多了,不想写了}

每次只要加 1 比特,编码种数就翻倍。如下图。

如果每个编码长度相等,那么一串编码就有唯一的解码方式。比如 01101110 就可以解码成 01-10-11-10,简单。

如果每个编码长度不相等,那么一串编码可以用同解码方法,比如 01101110 可以解码成以下两种(其实有很多种)

  • 0 - 11 - 01 - 110
  • 01 - 110 - 111 - 0

这样不就乱套了,必须采取限制,有个规则叫 prefix codes,就是任何编码都不能是其他编码的前缀。举例

  • 如果你用了 0,你就不能再用以 0 开头的其他编码,如 01, 001, 011 ...
  • 如果你用了 01,你就不能再用以 01 开头的其他编码,如 011, 011111 ...

从上图可知

  • 如果你用了 0,你失去了 1/2 的编码空间了
  • 如果你用了 01,你失去了 1/4 的编码空间了

这就是代价,这需要权衡,当你对一个动作用了短编码,你就需要对其他动作用个长编码。

下图就是一种编码,而且是最优编码(这个就不证明了,需要用到拉格朗日算子,目测没有小孩可以懂)。

这样我们就给每一个进攻动作一个密码:

  • 两分 - 0
  • 三分 - 10
  • 上篮 - 110
  • 灌篮 - 111

用上面一串密码来编码不会有任何歧义了。

8

主题:复习一下熵

现在我们知道最优编码长度就是熵(通常上面一节解释,希望现在可以秒懂熵的公式)。

无论怎么修改编码,如果一个随机事件的概率定下来了,那么用于交流该事件用的平均编码长度不会低于基于该事件分布的熵。

  • 如果很确定会发生什么事,那么就根本没有发送信息的必要。
  • 如果某件事有 2 种可能,概率分别为 50%,那么只需要发送 1 比特。
  • 如果有 64 种可能,每种发生的可能性都一样,那么平均需要 6 比特。

实际上,如果这些可能性中,每件事发生的概率相对集中,那么所需要的平均编码长度就更短,而如果概率相对分散,那么需要的平均编码长度就更长。均匀分布需要的平均编码长度最长。

9

主题:交叉熵

小明通过研究哈登的历史进攻动作发生频率(三分 1/2,上篮 1/4,灌篮和两分 1/8),做了一套编码(定义为哈登编码),每次传递一次信息只用 1.75 比特。

现在我又想让小明告诉我威少的下一个进攻动作,还可以用哈登编码来传递信息吗?威少的历史进攻动作发生频率如下:

  • 三分 1/8
  • 上篮 1/2
  • 灌篮 1/4
  • 二分 1/8

下图对比一下哈登和威少的进攻动作频率图。

这样,如果用哈登编码来发送威少动作分布的信息,得到信息平均编码长度就叫做交叉熵

反过来,如果用威少编码来发送哈登动作分布的信息,得到信息平均编码长度就也叫做交叉熵

正规定义:使用专门为另一个分布制作的密码表来发送某个分布中事件的信息,此时信息的平均编码长度定义为交叉熵(cross-entropy)。

把哈登动作分布称为 p 分布,把威少动作分布称为 q 分布,那么 p 分布对 q 分布的交叉熵公式如下

而 q 分布对 p 分布的交叉熵公式如下(把 p 和 q 位置反过来)

熵和交叉熵的总结在下图。

根据上面公式计算各种熵和交叉熵,得到

  • 用哈登编码传递哈登进攻信息 H(p) = 1.75 比特
  • 用哈登编码传递威少进攻信息 Hp(q) = 2.25 比特
  • 用威少编码传递威少进攻信息 H(q) = 1.75 比特
  • 用威少编码传递哈登进攻信息 Hq(p) = 2.375 比特

我们发现两个规律:

  1. 小于交叉熵(符合熵是最优编码的结论)
    1. H(p) = Hp(p)< Hq(p)
    2. H(q) = Hq(q) < Hp(q)
  2. 交叉熵不对称(不直观,接受吧少年)

Hq(p) ≠ Hp(q)

熵比交叉熵要小,那两者之间的差距是什么?看下节。

10

主题:KL 散度

Kullback-Leibler 散度(KL 散度)是熵与交叉熵之间的差值。称之为散度而不是距离是因为距离是对称的,而散度可以是不对称的。

回到我们的场景,把哈登动作分布称为 p 分布,把威少动作分布称为 q 分布,那么 p 分布对 q 分布的 KL 散度定义为

而 q 分布对 p 分布的 KL 散度定义为

上面 log2(q(x)/p(x)) 或 log2(p(x)/q(x)) 实际上是描述编码每个进攻动作时两种不同的编码之间的长度差异。

分布 p 和 q 差别越大,那么之间的 KL 散度 KLq(p) 和 KLp(q) 也就越大。

总结

最后看看湖人队的麦基,他进攻手段只有灌篮,如下图所示。

我不需要做什么预测(不需要发出任何信息),因此麦基 100% 会灌篮,根据公式我们有

H(p) = - 0×log20 - 1×log21 = 0

我们知道 log21 = 0,而且需要定义 log20 = 0。

如果某件事本身越不确定,而当你知道发生了什么时,你得到的信息也就越多。


交叉熵,即使用针对另一分布制作的密码表对某个分布内的事件进行通讯时的长度,其组成分为两部分:

  1. 使用针对本分布密码表进行通讯时所需的最短平均编码长度,即
  2. 因使用针对其他分布的密码表而导致的多出的部分,即 KL 散度

数学表达式如下:

交叉熵p(q) = 熵(q) + 散度p(q)

交叉熵q(p) = 熵(p) + 散度q(p)


最后提一下机器学习用的熵公式里面的对数都是以 e 为底,即 ln(),它和以 2 为底的对数只差一个大于零的常数项,我们有

ln(x) = log2(x) / log2e = c×log2(x)

因此在做极值问题时,不会对结果有什么影响。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-11-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 程序员郭震zhenguo 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
短信
腾讯云短信(Short Message Service,SMS)可为广大企业级用户提供稳定可靠,安全合规的短信触达服务。用户可快速接入,调用 API / SDK 或者通过控制台即可发送,支持发送验证码、通知类短信和营销短信。国内验证短信秒级触达,99%到达率;国际/港澳台短信覆盖全球200+国家/地区,全球多服务站点,稳定可靠。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档