关于熵(entropy)的简单理解

在机器学习领域有一种叫entropy目标函数,我们想通过调整参数(w,θ)去优化这种目标函数,以达到寻找到的含有某个参数(w,θ)的模型,最大程度上来表示我们想要描述的事件。

但是,对于没有接触过熵这种概念的同学,实在是很困惑,熵到底是什么?为什么熵能够代表对原信息的一种度量标准(criteria)?这种想法,也一直困扰着我,感觉"熵"这种高大上的东西,

感觉就像"量子物理"的"量子"概念一样,让人肃然起敬,但又捕捉不到,虚无缥缈,这真的存在吗?

直到有一天,我看到了PATTERN RECOGNITION AND MACHINE LEARNNING By BISHOP,里面的章节,才有那么一丝醍醐灌顶的感觉.我们从小最关注的就是"学识"二字,学,只是知识的积累,识,需要靠的是理解,而理解的最重要的方式与方法,当然是用一种最能贴近人生活的事物来阐述和关联知识点,这样形成的概念与意识才是相对来说比较稳固,才能非常自然地够达到创新的程度,也就达到了有"学识"的人,而不是死记硬背式的"知识添补机器".

今天,我就想结合BISHOP大师的方式与方法,来让大家能够自然而然地理解"熵"代表的含义,还有它所能代表的是什么.

首先,在进入"熵"这个话题之前,我会问这么一个问题:之前的那几段话,我提供给你的"信息量":到底有多少?也就是说,我之前说的话,对你来说,有多么重要,你能用几个词来表示我想表达的含义吗?其实,我自己试着用这么一句话来代表之前的信息:我只想让你知道熵是什么!仅此而已!    我ca,你或许会问?那你说那么多干嘛,这不明显在浪费我的时间吗?呵呵,说真的,我就是在浪费你时间

..是不是很surprise?是不是很激动,想拿一个棒子来锤我?不好意思,我已经脱离你们这帮世俗很久了,我已经皈依佛门,你们是找不到我地....言归正传,其实"熵"在一定程度上代表的就是对信息"degree of surprise"-----一种信息获取的惊讶程度,用一个数学等式来表示:

h(x)=entropy = degree of suiprise,                                                                                                                                                     (1)

更一般的,在信息论中我们都习惯地用h(x)来代表"熵",其中x代表一个变量,比如一个字,或者一段话,一个输入数据等等,反正就是数据,通常我们会假设数据是来自于某个分布(高斯,t,z.....)的一个随机数据.写到这,我不得不佩服香农大神,因为"熵"就出自于他的手笔,也是他首要地定义了并提出了"熵"的概念,就好像牛顿提出"万有引力"一样,发现了一个伟大的定理,但是在当时还是鲜有人知,这也注定奠定了香农大神在信息论中的绝对领导地位.

那么问题来了,光是只知道惊讶程度还不够,那是一种感性的认识,作为一种科学,那必然是需要一种用数学的方式(量化)来确切地表达这个概念.在用数学来表达这种概念之前,我们先对"熵"做一次全身体检,我们体检什么呢?就是要找到几种性质,然后呢,数学公式又能很好地满足我们找到的那几种性质,这样不就完美解决了"量化"问题吗?那么我就带领大家,进入这个神奇的量化过程吧............

首先,我们知道了,"熵"代表一种"惊讶程度",那么,我们试着这样想,我获得的惊讶程度越大,"熵"越大,这样好不好?当然你也可以反向定义:我获得信息越surprise,熵越小,后者的定义我们一般很少使用,直觉告诉我们,前者的这样表述更加自然,"熵"越大,我们获得的惊讶越大.

其次,"熵"值我们要大于零,为啥?惊讶不惊讶,你是否定个负值?首先我们知道数学上或者量化一个"变量",当这个"变量"存在有一种感情的倾向(通常具有褒贬概念)的时候,比如,我"讨厌"你,给你赋个负值(-1),要是我喜欢你,我就给你赋个正值(1111),这样我们能给"喜欢""讨厌"这样一对反义词分别赋,"正"和"负",这样也能很好理解对吧?但是对于"惊讶",我们有褒贬的意味吗?小学生都知道啊,比如说哇,今天下雪了,我感到很"惊讶",我可以给天打个"赞",如果今天天气也很"平常",你会感觉到"惊讶"吗?你都没感觉好不好,没感觉,你还无缘无辜给"天"打个××,打个"负"标签,你这不诚心跟"天"过意不去嘛,这样会被遭天谴地........所以,我们很自然地定义熵是一种大于等于"0"的函数.

最后,你是不是很自然想到,"熵"其实代表这一种不确定性,就想刚刚讲到的关于今天"天气"的"惊讶程度"一样,一旦"天气"出现了平时很难出现的"天气"(比如下雪,下冰雹,下"蛤蟆雨")的时候,才会感觉到很惊讶,你说对不对,这样很自然地与"概率论"中的概率联系在一起,我们观察一个event,当它的全概率(可以简单理解成发生的概率)很小的时候,却在你观察的时候发生了,那不是很惊讶吗?你说这自然不自然,我们是不是能用一种概率来表示这种熵呢?其实答案是很显然的,熵大多数是关于概率的函数,我们可以先假设熵可以表达如下的形式: 

h(x) = f(p(x))                                                                                                                          (2)

其中x是一个event,p(x)是这个x事件发生的概率,h(x)就是关于x概率分布的一个函数.现在我们接下来找找,熵具体张啥样子?我们要找到了,那我不也成了香农二世了?哈哈..

之前的量化过程,还只是找到一个熵的雏形,说明,我们还有一些特性还没有关注到,之前是只对当个变量进行的描述,我们换两个不相关事件,假设事件x与事件y,他们发生的概率

p(x,y)=p(x)*p(y).                                                                                                                    (3)

那么我们现在衡量这两个事件总共的信息熵h(x,y)是多少,我们是不是很自然地想到,这两种信息量由于不相关,他们的信息熵应该是两种事件信息熵的总和也就是

h(x,y) = h(x)+h(y)                                                                                                                  (4) 

首先我们对(3)公式做logarithm,也就是等式两边取个关于log的变换,那么(2)公式就会变成

log(p(x,y)) = log(p(x))+log(p(y))       (5)

你看看,(4)跟(5),长得像不像,这不很明显,h(x)与log(p(x))之前有着一种千丝万缕的关系嘛,感觉找到宝了,终点快要到来了,胜利的彼岸就在不远处,激不激动,我很激动,因为我找到了一条通向成功的路.那么我们把(2)公式转换成

h(x)=f(   log(  p(x)  )    ) (6)

因为我们知道p(x)在[0,1]之间取值,我们log一般习惯性地选择以2为底数的log值,这个跟计算机以二进制存储数据的特点有着天然的联系,所以,log(p(x))一般是小于0的,之前我们知道h(x)大于零,惊讶程度不能为负对吧,所以,我们很自然地把公式(6)改成

h(x) = f(  - ln(  p(x  )  ) (7)

之前的步骤,我相信很多人都能想到,那是因为这很自然,本来就是这样子对吧.那么,我们现在进入最后一个头脑大爆炸inference.也是最后得到熵的最终成就,

你们还记得开篇提到的那个问题吗?试问我那几段话的信息量有多大?我说了,那里一堆的废话,最终我尝试地用一句很简单的话来总结我说的话!这样的方式我们叫总结,也就是信息的凝聚,我们很多人其实更多地关注的部分是总结的内容,而不是那些废话,对吧.其实那一大堆话的熵h(一大堆话)与我简单介绍的话h(总结),这两者之间的信息熵是一样的,大家是不是很自然这么想呢?对了,用公式就是

h(一大堆废话) = h(几个简单的总结话)

所以我这里给两个事件,①一大堆的废话,里面包含很多文字的事件,②总结话语.且两个事件中的每个文字,我们看成是一个从说话人(也就是我啦)的中文文字表达习惯分布中抽取出来的文字的组合.这里有个关键点:

我们假设①的文字变量为x1,x2,..xn,有n个文字,每个文字我们用p(xi) i =1..n 来表示出现的概率,那么h(①) = -f(ln(x1,x2,x3,x4...xn))

同理我们假设②的文字变量y1,y2,ym 有m个文字,且m<<n(m数字远小于n文字),文字②的熵用h(②)=-f(ln(y1,y2,..ym)

而且我们通过②文字中的变量观察可以发现,y1,y2,..ym均在①文字变量中出现,对吧,比如"熵"我在ym中,同时肯定也在①中,那么我们最终要确保

h(①) = h(②),你觉得如果我们把h(x)简单定义为 h(x) = -ln( p(x) )这样的方式是否能使h(①) = h(②)等式成立,,细心的读者发现等式显然是不成立的对吧,而且h(②)<h(①)

那么我们直接定义熵  h(x) = -ln( p(x) ) 是不适合的.

那么问题来了,使得h(①) = h(②)成立,这个意味着什么?我们学过统计学的同学都知道统计指标的含义吧,比如均值\期望\方差,等等概念是对变量的平均.那么对于接受者来说①和②所代表的信息量是一样的,那么我们就很容易想到为啥我们不也像设计统计指标一样来定义熵的,这个想法在香农信息伦中,简单阐述为

the entropy can measure an average amount of information.

也就是H(x) = p(x1)ln(x1) + p(x2)ln(x2).....,这就是平均信息熵的概念.

这样我们很容易就能得到 h(①) = h(②),

熵就是惊讶程度,熵越大越惊讶,熵越小越确定所以我就不惊讶了............熵还有熵增技术,那么我们是否很容易就想到,熵增就是惊讶增长的程度呢?

希望这篇文章对你有所帮助,也希望大家踊跃参与,我也是一个初识庐山真面目的茫茫沧海一粟.

原创声明,本文系作者授权云+社区-专栏发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器人网

17张思维导图,全面掌握机器学习的统计基础知识

原图下载:https://pan.baidu.com/s/1midnOSC 本文用一系列「思维导图」由浅入深的总结了「统计学」领域的基础知识,是对之前系列文章...

3288
来自专栏机器之心

专栏 | 陈天奇等人提出AutoTVM:让AI来编译优化AI系统底层算子

1853
来自专栏数据科学与人工智能

【统计学习】统计学教会我们的10件事

在数据统计中,有10个概念与大数据分析密切相关。这10个概念聚焦在数据预测准确性,交互分析等方面。 在之前的帖子中,我曾指出大数据中一个关键问题,即忽略了应用统...

1916
来自专栏我分享我快乐

浏览器主题图标图形绘制方法

前言:学生们在学习ps软件的过程中非常的认真与努力,所以对于软件的使用可以说已经很熟练了,可是为什么当我们给学生安排一些原创设计需求的时候,学生却有种无从下手的...

3357
来自专栏数据科学与人工智能

【案例】10个数据可视化案例,让您更懂可视化

小编邀请您,先思考: 1 如何选择正确的图标视觉化数据?有哪些经验教训? 数据可视化,是一种用来将复杂信息数据清晰表述出来的强大有力的工具。通过可视化信息,我们...

2685
来自专栏大数据文摘

为何大多数人做出来的图表只是一坨屎?

28510
来自专栏大数据挖掘DT机器学习

想入门机器学习、数据挖掘,我该怎么做?

想入门机器学习、数据挖掘,我该怎么做?我自己是本科数学出身,本科毕业的时候,我并不知道什么是机器学习,也没有写过大型程序,更不要说去搞一个机器学习的算法和实践了...

3589
来自专栏人工智能头条

我在机器学习踩过的坑,现在告诉你怎么跳过去

人工智能(其实本禅师认为目前看来翻译成人造智能可能更直白一点)毫无疑问,已经是科技趋势,却又是门槛相对较高、对学习者要求非常高的一门科学。

853
来自专栏一名叫大蕉的程序员

机器学习从抬脚到趴倒在门槛No.34

好像一下子,进入了AI时代,后台的很多小伙伴其实都很迷茫,自己现在该如何去做好准备,去迎接即将到来的All in AI。 所以就有了今天这篇文章啦。今天呢,跟...

1839
来自专栏PPV课数据科学社区

【学习】如何避免数据可视化的十大误区?不在出渣图表

数据可视化,是一种用来将复杂信息数据清晰表述出来的强大有力的工具。 通过可视化信息,我们的大脑可以更有效地合成和保留信息内容,增强对信息的理解。但是如果不正确数...

26610

扫码关注云+社区