"蒙提霍尔"问题小议

问题

乍一看”蒙提霍尔”这个名字可能感觉陌生,但其实问题的内容大家或多或少应该都听闻过,在此简单复述一下:

有三扇门,其中一扇门背后有奖励,另外两扇门后面则没有,现在你先随机选择其中一扇门,然后把余下两扇门中没有奖励的那扇门打开,并给你一次重现选择的机会,你是否应该改变最初的选择?

文字描述的可能还是有些绕路,使用符号化形式的实例再表述一遍 :)

三扇门 A, B, C, 你先选择了 A, 然后把 B, C 中没有奖励的 B 打开,这时你是否应该放弃最初的选择(A),转而选择 C ?

迷思

这个问题容易让人困惑,你可能会维持最初选择,因为:

最初选择时的选中(奖励)概率为1/3,后面流程并没有影响这个概率,所以可以维持最初选择(因为剩下那扇门的选中概率也是1/3)
最初选择时的选中(奖励)概率为1/3,后面去除了一扇门,所以选中概率变为了1/2,所以可以维持最初选择(因为剩下那扇门的选中概率也是1/2)
应该相信第一感觉(?!)

但可惜这些都是错误答案,正确答案是你应该转换选择!

真相

这个问题有很多正确的理解方法,譬如:

最初选择时的选中(奖励)概率为1/3,后面如果我们转化选择的话,选中概率即为1 - 1/3 = 2/3(即最初选择选错的概率)
转换选择概念上等于同时选择了两扇门,所以转换选择的选中概率为2 * 1/3 = 2/3

另外的还有一种帮助我们思考的理解方法:

假设现在有100扇门,你选择了其中一扇,然后我们把余下的没有奖励的98扇门打开,这时你要转换选择吗?

以上这些理解方法都需要一些巧思,另一种相对朴素的理解(计算)方式则是直接从概率的定义出发:

我们列举出该问题所有可能的组合方式(总样本数量S),然后找出其中维持初选并且选中(奖励)的方式(样本数量A),相关概率即可通过下面公式计算:

P(维持选择并选中) = A / S P(改变选择并选中) = 1 - A / S

首先我们来计算总样本数量S:

  1. 首先我们随机一扇奖励门(门后有奖励),这有3种选择
  2. 接着我们随机一扇最初选择的门,这也有3种选择
  3. 最后我们随机最后会打开的门,这有2种情况

综上, S = 3 * 3 * 2 = 18

(注意,这里有个晦涩的计数问题,你可能会问:如果第二步中我们没有随机到奖励门,那么第三步中可以选择打开的门便只有1种,而不是2种,所以我们不能用这种方式计算总样本数量. 这种说法其实是混淆了总样本数量和总排列组合数量:对于总排列组合数量而言,确实不能这样计算,但是对于总样本数量而言,其实其中是包括部分重复的排列组合的! 也许我们可以这么理解:最后选择打开的门时仍然看做随机选取,只是在随机到奖励门的时候主动变更到非奖励门,这样可以随机的门的种类仍然可以看做2种)

然后我们来计算样本数量A(维持初选并选中的方式):

  1. 首先我们随机一扇奖励门(门后有奖励),这有3种选择
  2. 接着我们随机一扇最初选择的门,这必须是奖励门(这样才能保证维持初选时可以选中奖励),所以只有1种选择
  3. 最后我们随机最后会打开的门,这有2种情况

综上, A = 3 * 1 * 2 = 6

有了 S 和 A ,我们便可以计算我们想要的概率了:

P(维持选择并选中) = A / S = 6 / 18 = 1 / 3 P(改变选择并选中) = 1 - A / S = 1 - 6 / 18 = 2 / 3

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器学习AI算法工程

天池大赛—商场中精确定位用户所在店铺 作品分享

题目回顾 题目地址: 题目要求给定一条用户的消费记录,求该用户当前所在的店铺。 下面介绍题目数据和评测方式 1. 店铺和商场信息表(mall) ? 2. 用户...

55460
来自专栏AI科技大本营的专栏

技能 | 只要五步,教你撸一个缩减版国际象棋AI

从国际象棋到中国围棋,人类与“机器”已经较上了劲。 看过那么多场对战,你是不是也想上手体验一把? 来来来,简单五步,手把手教你撸一个缩减版的国际象棋AI。 ...

38370
来自专栏机器之心

教程 | 利用AllenNLP,百行Python代码训练情感分类器

情感分析是一种流行的文本分析技术,用来对文本中的主观信息进行自动识别和分类。它被广泛用于量化观点、情感等通常以非结构化方式记录的信息,而这些信息也因此很难用其他...

20110
来自专栏人工智能头条

机器学习在web攻击检测中的应用实践

17150
来自专栏IT派

推荐|Kaggle机器学习之模型融合(stacking)心得

此文道出了本人学习Stacking入门级应用的心路历程。 在经过了几天漫长的查询资料和整理,脑子不好,理解顿悟花了不少时间。在学习过程中感谢@贝尔塔的模型融合...

49950
来自专栏罗晖的专栏

使用 Q-Learning 实现 FlappyBird AI

Q-Learning 是一种 off-policy 的强化学习算法, 本文介绍如何使用 Q-Learning 来实现FlappyBird 游戏的 AI,附件中给...

1.7K00
来自专栏深度学习与数据挖掘实战

【AI头条&优质资源】时间序列预测模型:使用深度神经网络RNN+Attention机制

放arxiv那天看了一下,整篇paper思路读下来还是非常清晰的,实验效果也很不错。

55520
来自专栏PPV课数据科学社区

只需七步就能掌握Python数据准备

摘要: 本文主要讲述了如何在python中用七步就能完成中数据准备。 上图为CRISP-DM模型中的数据准备   下面七个步骤涵盖了数据准备的概念,个别任务...

35170
来自专栏AI科技评论

开发 | Kaggle机器学习之模型融合(stacking)心得

此文道出了本人学习Stacking入门级应用的心路历程。 在学习过程中感谢@贝尔塔的模型融合方法(https://zhuanlan.zhihu.com/p/25...

670130
来自专栏机器学习人工学weekly

机器学习人工学weekly-2018/8/26

Safety-first AI for autonomous data centre cooling and industrial control

12430

扫码关注云+社区

领取腾讯云代金券