前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【概率笔记】条件概率这样学才快啦

【概率笔记】条件概率这样学才快啦

作者头像
zenRRan
发布2018-07-25 11:29:08
8800
发布2018-07-25 11:29:08
举报

阅读大概需要3分钟 跟随小博主,每天进步一丢丢

精彩往期回顾:

一大批历史精彩文章啦

【概率笔记】基础之概率概论与集合论

【概率笔记】这些概率公理性质你需要会的呀

条件概率(Conditional Probability)

这里用一个例子来告诉大家:

比如,一个上学期间整天鬼混的学沫,根本就不好好学习,对于他而言,选择题的四个选项ABCD被他选取的概率就为1/4。而对于大学霸来说,题题都会,那么他选取每一个选项的概率就为1或0。

但是有一天,这个学沫和学霸考试竟然挨着,当学沫想看学霸选择题的时候,被学霸一手遮住:

那么在这样的事情发生之后,学沫肯定就知道不是选B就是选D了,AC根本不可能。那么此时的P(B)=P(D)=1/2。上述情况发生后一个事件的概率被称为条件概率。

数学上的条件概率表示

P(X|Y)

其中

X:自己关心的事(要求的概率)

Y:观察到的,已发生的事件(已知条件)

条件概率怎么算?

若某事件Y包含数个实验结果:

Y={O1, O2,...,On}

那么P(Oi|Y)的条件概率表示为(忽略小鼠标)

如果考虑到某事件X={O1,O2,Q1,Q2},已知条件事件Y={O1,O2,O3}发生了,则:

所以最终可以包含所有情况的公式定义

若已知某事件Y发生了,则对于任何事件X,我们可以计算其条件概率为:

注:英文中表示已知条件的词大致为condition on,Suppose,if,Assuming,given that。

条件概率定理

定理一

注:很明显由概率公理一得任何概率都大于等于0,所以这里P(X|Y)大于等于0(当然分母等于0咋办?所以为了数学严谨,直接定该条件概率大于等于0)

定理二

注:自己在自己发生的情况下的概率为1

定理三

注:若AB互斥,那么它们集合的条件概率等于分别各自的条件概率

定理四

全概率(Total Probability)定理

若C1,C2,...,Cn互斥,且它们的并为全集合S,则对于任意事件A有:

注:其中根据上面提到的公式

得出该式中

那么根据上章讲的切面包定理

公式证明为:

举个应用栗子:

比如还是上章讲的阿宅和可爱店员,店员对阿宅是否笑,是收到店的生意的影响的。

其中:满表示生意火爆;普表示平淡;惨表示店里冷清惨淡。

之前考虑的是这个可爱店员对阿宅笑的概率。那么这次考虑可爱店员笑的概率

那么此时的概率用集合表示为

根据上述公式得

定理五

贝叶斯(Bayes)定理

若C1,C2,...,Cn互斥且它们的并为总集合S,则对任意事件A,有

注:贝叶斯定理用的还是很多的,比如在机器学习以及自然语言处理应用中。由公式可以看出一个细节,前面的条件和关心的事件在后面的公式总反过来了,所以这个贝叶斯定理经常被用在交换条件和关心事件的公式。

证明也不难,左边的公式等于

举个栗子

还是阿宅和可爱店员的例子。这次我们站在店长的角度考虑,店长在乎的是店的生意,有一天,店长恰好看到了这个可爱店员笑了,那么此时店里是满(红红火火)的概率。

计算公式为:

所以,当店长看到店员笑的时候,店里满的概率仅仅为九分之一,看来店长看到店员笑的时候会很生气啊。哈哈

好了今天就到这里,每天进步一丢丢!用5秒钟看完下面雅思单词吧O.O

Reference 概率视频 叶丙成 中国台湾大学

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档