前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >自然语言中的重要概念——熵(Entropy)

自然语言中的重要概念——熵(Entropy)

作者头像
felixzhao
发布2018-03-19 17:11:49
5900
发布2018-03-19 17:11:49
举报
文章被收录于专栏:null的专栏null的专栏

一、背景

熵是热力学中的一个重要的概念,最早是由香农(Claude Shannon)将熵应用于信息的度量。

熵(Entropy)是描述事物无序性的一个重要的参数,熵越大则无序性越强,同时,熵表示一个随机变量的不确定性。

二、熵

1、信息熵

香农指出,一条信息的信息量和它的不确定性之间有着直接的关系。因此可以使用信息熵来描述信息量的多少。

信息熵的定义为:设一个随机变量X,其可能的mm种取值为x1,x2,⋯,xm,对于每一种取值的概率为:p1,p2,⋯,那么随机变量XX的不确定度,即信息熵,用H(X)H表示:

H(X)=∑i=1mpilog21pi=−∑i=1mpilog2pi

信息熵表示的是随机变量X可能的变化,若随机变量的变化越多,那么其信息量越大。而与随机变量的具体取值无关,只与其值的类别以及每种类别的概率有关。

2、条件熵

条件熵(Conditional Entropy)的定义为:设两个随机变量XY,在X已知的前提下,Y的熵,定义为Y的条件熵,用H(YX)H表示:

H(YX)=−∑xi,yjm,np(xi,yj)log2p(yjxi)

对于上述的条件熵的定义,可由下面的推理得到:

H(YX)=p(x1)⋅H(YX=x1)+⋯+p(xm)⋅H(YX=xm)=∑i=1mp(xi)⋅H(YX=xi)=−∑i=1mp(xi)⋅⎛⎝∑j=1np(yjxi)⋅log2p(yjxi)⎞⎠=−∑i=1mj=1np(yj,xi)⋅log2p(yjxi)=−∑xi,yjm,np(xi,yj)log2p(yjxi)

3、联合熵

联合熵和联合分布的概念类似,联合熵指的是多个随机变量的熵。联合熵的定义为:设两个随机变量XX,YY,p(xi,yj)p\left ( x_i,y_j \right )表示联合概率,则联合熵表示的是随机变量XX和YY共同携带的信息量,用H(X,Y)H\left ( X,Y \right )表示:

H(X,Y)=−∑xi,yjm,np(xi,yj)log2p(xi,yj)

其中,条件熵,联合熵和熵之间的关系为:

H(YX)=H(X,Y)−H(X)

对于上式的证明如下:

H(X,Y)−H(X)=−∑xi,yjm,np(xi,yj)log2p(xi,yj)+∑i=1mp(xi)log2p(xi)=−∑xi,yjm,np(xi,yj)log2p(xi,yj)+∑i=1m⎛⎝∑j=1np(xi,yj)⎞⎠⋅log2p(xi)=−∑xi,yjm,np(xi,yj)⋅(log2p(xi,yj)−log2p(xi))=−∑xi,yjm,np(xi,yj)log2p(yjxi)=H(YX)

对于联合熵,有一些性质,如下所示:

  • H(X,Y)⩾H(X)H
  • H(X,Y)⩽H(X)+H(Y)H
  • H(X,Y)⩾0H

4、相对熵

相对熵,又称为交叉熵或者KL距离或者KL散度。主要是用来度量两个概率分布之间的差异程度。假设两个概率分布 P(x)P\left ( x \right )和Q(x)Q\left ( x \right ),用D(PQ)D\left ( P\parallel Q \right )表示两个分布之间的KL散度:

D(PQ)=∑xXP(x)⋅log2P(x)Q(x)

当两个分布完全相同时,此时KL散度为00。

三、互信息

KL距离衡量的是相同的事件空间里的两个事件的相似程度,而互信息衡量的是不同事件空间中的两个信息的相关性。设两个随机变量XX和YY,互信息为I(X,Y)I

I(X,Y)=∑i=1mj=1np(xi,yj)⋅log2p(xi,yj)p(xi)p(yj)

互信息就是随机事件XX的熵H(X)H,以及在给定随机变量YY的条件下的条件熵H(XY)H之间的差异,即:

I(X,Y)=H(X)−H(XY)

由上述的定义可知,互信息与信息增益等价。

参考文献

  • 数学之美
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、背景
  • 二、熵
    • 1、信息熵
      • 2、条件熵
        • 3、联合熵
          • 4、相对熵
          • 三、互信息
          • 参考文献
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档