中心极限定理通俗介绍

阅读大概需要5分钟

作者 朱曦炽 编辑 zenRRan 链接 https://www.zhuxichi.com/2017/02/14/CentralLimitTheorem/

导读

中心极限定理是统计学中比较重要的一个定理。 本文将通过实际模拟数据的形式,形象地展示中心极限定理是什么,是如何发挥作用的。

什么是中心极限定理(Central Limit Theorem)

中心极限定理指的是给定一个任意分布的总体。我每次从这些总体中随机抽取 n 个抽样,一共抽 m 次。 然后把这 m 组抽样分别求出平均值。 这些平均值的分布接近正态分布。

我们先举个栗子?

现在我们要统计全国的人的体重,看看我国平均体重是多少。当然,我们把全国所有人的体重都调查一遍是不现实的。所以我们打算一共调查1000组,每组50个人。 然后,我们求出第一组的体重平均值、第二组的体重平均值,一直到最后一组的体重平均值。中心极限定理说:这些平均值是呈现正态分布的。并且,随着组数的增加,效果会越好。 最后,当我们再把1000组算出来的平均值加起来取个平均值,这个平均值会接近全国平均体重。

其中要注意的几点

1.总体本身的分布不要求正态分布

上面的例子中,人的体重是正态分布的。但如果我们的例子是掷一个骰子(平均分布),最后每组的平均值也会组成一个正态分布。(神奇!)

2.样本每组要足够大,但也不需要太大

取样本的时候,一般认为,每组大于等于30个,即可让中心极限定理发挥作用。

话不多说,我们现在来一步步看到中心极限定理是如何起作用的。

用实际数据来展示中心极限定理

注:我们使用python语言以及iPython Notebook来生成和展现数据。不懂的童鞋可以略过代码

第一步, 生成数据

假设我们现在观测一个人掷骰子。这个骰子是公平的,也就是说掷出1~6的概率都是相同的:1/6。他掷了一万次。我们用python来模拟投掷的结果:

生成出来的平均值:3.4927(每次重新生成都会略有不同)

生成出来的标准差:1.7079

平均值接近3.5很好理解。 因为每次掷出来的结果是1、2、3、4、5、6。 每个结果的概率是1/6。所以加权平均值就是3.5。

第二步,画出来看看

我们把生成的数据用直方图画出来直观地感受一下:

可以看到1~6分布都比较平均,不错。

第三步,抽一组抽样来试试

我们接下来随便先拿一组抽样,手动算一下。例如我们先从生成的数据中随机抽取10个数字:

这10个数字的结果是: [3, 4, 3, 6, 1, 6, 6, 3, 4, 4]

平均值:4.0

标准差:1.54

可以看到,我们只抽10个的时候,样本的平均值(4.0)会距离总体的平均值(3.5)有所偏差。

有时候我们运气不好,抽出来的数字可能偏差很大,比如抽出来10个数字都是6。那平均值就是6了。 为什么会出现都是6的情况呢?因为我比较6…哦不是,因为这就是随机的魅力呀!

不过不要担心,接下去就是见证奇迹的时刻。

第四步,见证奇迹的时刻

我们让中心极限定理发挥作用。现在我们抽取1000组,每组50个。

我们把每组的平均值都算出来。

这一共1000个平均值大概是这样的:[3.44, 3.42, 3.22, 3.2, 2.94 … 4.08, 3.74] (我肯定不会把1000个数字都写完,又没有稿费可以骗)

然后,我们把这1000个数字用直方图画出来:

TADA! 完美地形成了正态分布

结果打印如下:

平均值:3.48494

标准差:0.23506

实际应用

在实际生活当中,我们不能知道我们想要研究的对象的平均值,标准差之类的统计参数中心极限定理在理论上保证了我们可以用只抽样一部分的方法,达到推测研究对象统计参数的目的

在上文的例子中,掷骰子这一行为的理论平均值3.5是我们通过数学定理计算出来的。而我们在实际模拟中,计算出来的样本平均值的平均值(3.48494)确实已经和理论值非常接近了。

原文发布于微信公众号 - 深度学习自然语言处理(zenRRan)

原文发表时间:2018-04-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

NeurIPS 2018亮点选读:深度推理学习中的图网络与关系表征

作者简介:Angulia Yang 毕业于新加坡国立大学,目前从事人工智能相关计算机视觉 (Computer Vision) 的研究与开发工作,主要工作方向集中...

5922
来自专栏AI科技评论

「糟糕」的策略梯度

AI 科技评论按:强化学习(reinforcement learning)是机器学习界近几年的一大研究热点,无需先验知识、在环境中反复摸索尝试获得高反馈(rew...

3075
来自专栏AI2ML人工智能to机器学习

图文并茂,卡曼滤波

我务必向大家介绍卡尔曼滤波器(Kalman Filter),因为它之所能, 忒惊人!

802
来自专栏机器之心

ICLR 2018 | CMU提出新型智能体定位方法:「主动神经定位器」

41611
来自专栏机器学习和数学

[机智的机器在学习] 卷积神经网络入门教程(1)

机智的机器在学习,就像机智的你现在在学习一样,当你在看这篇文章的时候,你就是在学习,学习的材料(数据)就是这篇文章。学习的结果就是你了解了卷积神经网络是个什么鬼...

3926
来自专栏机器之心

业界 | 谷歌发布MobileNetV2:可做语义分割的下一代移动端计算机视觉架构

选自Google Blog 作者:Mark Sandler、Andrew Howard 机器之心编译 参与:黄小天、思源 深度学习在手机等移动端设备上的应用是机...

3216
来自专栏人工智能头条

Otto产品分类挑战赛亚军:不要低估最近邻算法

1554
来自专栏AI科技评论

独家 | 香港科技大学在读博士生张鹏博:借鉴师生互动模式来训练机器学习模型

AI科技评论按,在学校教学模式中,老师扮演着重要的角色。借鉴老师与学生的师生互动模式,香港科技大学在读博士生张鹏博在他的论文A New Learning Par...

3774
来自专栏新智元

首次超越LSTM : Facebook 门卷积网络新模型能否取代递归模型?

【新智元导读】Facebook 在尝试使用“门卷积网络”的方法来为语言建模,最近,他们首次取得了超过递归神经网络方法建模方法的性能表现,性能了超越目前被认为是...

2875
来自专栏AI科技评论

谷歌大脑发布神经网络的「核磁共振」,并公开相关代码

作者:杨晓凡、camel、思颖、杨文 AI 科技评论按:神经网络的可解释性一直是所有研究人员心头的一团乌云。传统的尝试进行可解释性研究的方法是通过查看网络中哪个...

3008

扫码关注云+社区

领取腾讯云代金券