10分钟教你用睡觉这件事玩转贝叶斯推断

编译 | AI科技大本营

参与 | 张建军

编辑 | 明 明

【AI科技大本营导读】贝叶斯法则和其他统计概念很难通过只用到字母的抽象公式、或者一些虚构的情景来理解。在作者William Koehrsen上过的许多课程中,通常会用一些并不是非常有用的例子来展示贝叶斯法则,例如抛硬币或者从缸里抽彩球,但是直到这一个项目才让作者最终理解了如何应用贝叶斯推断。

本文中作者展示了贝叶斯推断通过考虑新的证据来修正我们的信念,从而能更好地模拟真实世界。随着我们收集到更多的证据,我们需要持续调整我们的预测,而贝叶斯公式正好为我们提供了合适的框架。

贝叶斯推断的基本思想是通过更多数据,从而"犯少一点错误"。推断过程很直接:我们首先有一个初始信念,被称为先验,当我们获得额外的信息后可以对这个信念进行修正更新。虽然我们并不知道这个过程就是贝叶斯推断,但是我们一直都在使用这个技巧。

举个例子,我们可能一开始认为我们有百分之五十的可能性会在本季度末升职。如果我们从经理那得到正面的反馈,那么我们就向上调整升职可能性,而相反地,如果我们把咖啡机弄得一团糟,那么我们可能就得降低一下概率了。随着我们不断地获得更多的信息,我们可以不断地修正我们的估计以逼近“正确”的答案。以上我们直觉的行为可以用以下简单却强大的公式来形式化描述,该公式被称为贝叶斯法则(http://www.eecs.qmul.ac.uk/~norman/BBNs/Bayes_rule.htm):

等号左边那项被称为后验,我们读作给定事件B发生后事件A发生的条件概率。在等号右边,P(A)被称为先验,或者被叫作我们对事件A发生的概率的初始信念,P(B|A)被称为似然(也是一个条件概率),这一项是可从数据中得到的,P(B)则是一个归一化常数使得概率分布之和为1。用统计的语言来描述贝叶斯法则的一般形式是后验概率等于似然乘以先验除以归一化常数。这个简短的等式引出了贝叶斯推断的整个领域,也给人们带来了对世界进行推理的有效方法。

虽然等式中的A和B是非常好的占位符,但是它们并不能很好地帮助我们了解如何使用这个概念。为了达到这个目的,可以应用贝叶斯法则去解决一个真实世界的问题。

▌案例

在我自己的生活中,我一直在研究的一个问题就是睡眠模式。我从自己携带的Garmin Vivosmart智能手表中收集了超过两个月的数据,这些数据显示了我何时入睡和起床。在上一篇文章中,我用马尔可夫链蒙特卡罗(Markov Chain Monte Carlo, MCMC)方法计算出了在给定的时间我睡着了的概率。最终模型显示,睡眠的最有可能的分布是一个关于时间的函数(MCMC是一种近似方法),如下图所示。

这是只考虑时间因素的情况下我睡着了的概率。要是我们知道时间的同时还知道其他的证据又会怎样?如果知道我的卧室灯亮着,这会如何改变我睡着了的概率?这就是我们可以利用贝叶斯法则来更新我们的估计的地方了。对于特定时间,如果我们知道我的卧室灯的信息,那么我们可以利用上面的概率分布作为我们的先验,然后应用贝叶斯公式:

等号左边是后验,即给定我的卧室灯的状态(开或关)的情况下我睡着了的条件概率。要是我们没有其他额外的信息可以提供的话,那么在给定时间的睡眠概率将作为我们的先验,P(sleep),或者说作为我们的估计。例如,在晚上10:00,我睡着的先验概率是27.34%。如果我们真的有更多信息,那么我们就可以利用似然来更新这一概率,P(bedroom light |sleep),似然可以从观测数据中得到。根据我的习惯,我知道在我睡着的情况下我的卧室灯亮着的概率是1%。即:

在我睡着的情况下我的灯关掉的概率是1–0.01 = 0.99(这里我用了减号(-)来表示相反的情况)。这是因为条件概率分布之和为1。如果我们知道我睡着了,那么我的卧室灯肯定处于开着或者关着两种情况之一!

等式的最后一项是归一化常数P(light)。这是我的灯开着的全概率。我的灯开着存在两种情况:我睡着了或者我醒着。因此,如果我们知道我睡着了的先验概率,我们可以这样计算归一化常数:

我的灯开着的全概率考虑了两种可能,我睡着了且我的灯开着,以及我醒着且我的灯开着。(P(-sleep) = 1 —  P(sleep) 是我醒着的概率)

我醒着的情况下我的灯开着的概率,P(light | — sleep),也是从观测数据中决定的。在我的例子中,我知道如果我醒着,我的卧室灯大概有80%的概率是开着的(这也意味着如果我醒着的话,有20%的可能我的灯是关着的)。

利用我的灯开着的全概率,贝叶斯公式可写成:

这个公式展示了在我的灯开着的情况下我睡着了的概率。如果我的灯灭了,那么我们可以把公式中的P(light|...全部换成P(-light|...

只有文字的公式已经够多了,下面让我们看看怎么利用数字来使用这些公式!

根据公式,我们来一步一步地计算在晚上10:30,我们知道我的卧室灯亮着的情况下,我睡着了的概率是多少。首先,我们根据时间来计算我睡着的先验概率,得到结果是73.90%。这个先验给我们的估计提供了一个很好的起点,但是我们可以通过加入关于我的卧室灯的信息来改善这个估计。既然知道我的卧室灯亮着,我们可以把相关的数字填到贝叶斯公式中去:

卧室灯亮着这一知识很大程度上改变了我们对我睡着了的概率的估计,从70%变成了3.42%。这一变化展示了贝叶斯法则的威力:通过引入更多信息我们可以更新我们的最初估计。虽然我们平时可能根据直觉也会这么做,但是利用正式的公式来思考这一过程可以让我们用一种严谨的方式来更新我们的信念。

让我们尝试另一个例子。假设现在是晚上9:45,且我的卧室灯灭了怎么办?从先验概率是0.1206入手,试试把这个例子解出来。

我不是每次都进行手工推断,而是写了一些Python代码来进行以上的计算,你可以在这个Jupyter Notebook里把玩这些代码。

Jupyter Notebook:https://github.com/WillKoehrsen/ai-projects/blob/master/bayesian_inference/bayes_rule_applied.ipynb

代码输出了以下答案:

Time: 09:45:00 PM     Light is OFF.
The prior probability of sleep:    12.06%
The updated probability of sleep:  40.44%

我们再一次发现额外信息改变了我们的估计。现在,如果我的妹妹打算在晚上9:45打电话给我,而且她以某种方法知道我的卧室灯亮着,那么她就可以参照这条等式来判断我是否会接电话了(假设我醒着的时候我总会接电话)!谁说你不能在日常生活中使用统计学的?

看到数值结果很有帮助,但是数据可视化可以更加清晰地说明问题。在与别人交流想法时,要是他们不能直接通过方程来理解,那么我总是试着引入图像来进行解释。下面,我们可以利用额外的数据来对我睡着了的先验和条件概率分布进行可视化。

当我的卧室灯亮着时,曲线向右进行了移动,意味着在某一特定的时间点我睡着的概率很低。相似地,如果我的灯灭了,曲线向左进行了移动。想从概念上理解一个统计学概念很困难,但是这个插图正好说明了我们为什么要使用贝叶斯法则。如果我们想在这个世界犯少一点错误,那么额外的信息应该改变我们的信念,而贝叶斯推断正是利用一个系统的方法来更新我们的估计。

▌利用更多的证据

为什么要在我的卧室灯这里就止步不前呢?我们可以在模型中使用尽可能多的信息,这个模型也会继续变得更加的精确(只要数据告诉我们相关情况的有用信息)。举个例子,如果我知道在我睡着的情况下,我的手机在充电的似然是95%,那么我们就可以把这个知识加入到我们的模型中。

在这里,我们假设,在给定我是否睡着的信息的情况下,我的手机正在充电的概率条件独立(https://en.wikipedia.org/wiki/Conditional_independence)于我的卧室灯亮着的概率(独立性是一个稍微高级点的概念,但是它可以让我们简化许多问题)。利用额外信息的贝叶斯公式如下表示:

这看上去可能有点吓人,但是利用一点Python代码,我们可以写一个函数来为我们做这些计算。我们输入任意时间,以及灯的开关状态和手机状态这两种状态信息的任意组合,然后这个函数就可以返回更新过的我睡着的概率。

我将跳过数学(我让我的电脑帮我计算)并展示结果:

Time is 11:00:00 PM     Light is ON     Phone IS NOT charging.

The prior probability of sleep:    95.52%
The updated probability of sleep:  1.74%

在晚上11点,没有额外信息的情况下,我们几乎可以肯定我睡着了。然而,一旦我们有了额外信息:我的灯亮着,手机没有在充电,我们就可以判断我睡着的可能性很低。下面是另一组输入得到的输出结果:

Time is 10:15:00 PM     Light is OFF    Phone IS charging.

The prior probability of sleep:    50.79%
The updated probability of sleep:  95.10%

根据具体的情况,概率会变高或变低。为了证明这一点,我们可以观察灯和手机状态的四种不同组合,以及这些组合是如何改变概率分布的:

这幅图包含了许多信息,但是关键点是概率曲线随着证据的不同而发生改变。我们获得更多数据的同时,也可以更好的修正我们的估计。

▌总结

贝叶斯法则和其他统计概念很难通过只用到字母的抽象公式、或者一些虚构的情景来理解。如果你理解一个概念有困难,那么去找出一个你可以应用它的场景,或者看看别人成功应用它的例子!

当我们把概念转化到具体问题时,我们才真正的学到东西。我们不仅可以通过这种方式学到新技能,而且我们还能做一些很酷的项目!成功掌握数据科学需要持续的学习,不断为你的技能添加新技术,并且为不同任务找到最佳的解决方案。

作者:William Koehrsen

原文链接:https://towardsdatascience.com/bayes-rule-applied-75965e4482ff

原文发布于微信公众号 - AI科技大本营(rgznai100)

原文发表时间:2018-02-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI科技评论

大会 | 自然语言处理顶会NAACL 2018最佳论文、时间检验论文揭晓

AI 科技评论按:ACL、EMNLP、NAACL - HLT、COLING 是 NLP 领域的四大顶会。前三者都由 ACL(Association of Com...

15840
来自专栏机器之心

学界 | ReQuest: 使用问答数据产生实体关系抽取的间接监督

选自 arXiv 机器之心编译 参与:Nurhachu Null、李泽南 在这篇伊利诺伊大学、南加州大学与上海交大合作的 WSDM 2018 论文中,研究人员提...

367110
来自专栏人工智能

漫谈神经语言模型之中文输入法

漫谈神经语言模型之中文输入法 Speech Valley是原先的github项目Automatic Speech Recognition的正式库名称,之所以取名...

348100
来自专栏数据科学与人工智能

简明数据科学(2):简单点,概念的解释简单点

原文:Data Science Simplified Part 2: Key Concepts of Statistical Learning 翻译:Kaise...

37170
来自专栏量子位

吃瓜笔记 | 旷视研究院解读Light-Head R-CNN:平衡精准度和速度

主讲人:黎泽明 | 旷视研究院研究员 屈鑫 编辑整理 量子位 出品 | 公众号 QbitAI 12月20日晚,量子位·吃瓜社联合Face++论文解读系列第三期开...

36750
来自专栏CVer

[计算机视觉论文速递] 2018-06-11

这篇文章有4篇论文速递信息,涉及CNN pruning、新的人脸识别数据集、森林树木分类和交通标志检测等方向。

15220
来自专栏吉浦迅科技

(图解)类神经网络的复兴:深度学习简史

前述:人工智能与机器学习的演进 1950年代计算机发明以来,科学家便希冀着利用计算机创造出人工智能。然而当时的人工智能理论采用的是逻辑推理方法,需要百分之百确...

570120
来自专栏数据科学与人工智能

【机器学习】机器学习和计算机视觉相关的数学

MIT一牛人对数学在机器学习中的作用给的评述,写得很实际 机器学习和计算机视觉都是很多种数学的交汇场。看着不同的理论体系的交汇,对于一个researcher来说...

28080
来自专栏人工智能头条

八大步骤,用机器学习解决90%的NLP问题

18930
来自专栏专知

强化学习初探 - 从多臂老虎机问题说起

▌背景和问题定义 ---- ---- 2018年我开始了机器学习相关领域的博士生涯,相比于目前流行的深度学习以及类似的需要大量训练数据来生成模型的监督学习方法,...

95290

扫码关注云+社区

领取腾讯云代金券