ISLR_t统计量

回顾

之前讲了Z统计量。 Z统计量的总体逻辑是:假设H0成立,建立群体均值的正态分布。正态分布的均值是总体均值,标准差是σ/n−−√\sigma /\sqrt{n},σ\sigma一般用ss估计。这时候,根据样本的均值算出样本均值在群体均值正态分布的位置,如果位置很偏(p值很小,也就是取极限值的概率很小),那么就把H0拒绝了,因为从概率角度上,低概率事件可以默认为不可能事件,但是有一定的犯错概率,也就是Type 1 Error。

t分布的起源

大样本的好处 在obes独立不相关以及群体分布不是太skew的前提下,一个大的样本意味着

  1. sample distribution of the mean 是正态的
  2. 估计的standard error更可信:sn√\frac{s}{\sqrt{n}}

sample样本越小,那么对standard error的估计就越不确信,因此相应的CI需要变得更宽一些,这就产生了T分布。

t分布概述

t分布的形状和自由度有关,自由度dfdf一般是df=n−1df=n-1。样本越大,t分布越接近正态分布。 样本越小,t分布越宽,这样解释了σ\sigma的不确定性。

inference for a mean

inference for comparing two independent means

inference for comparing two paired means

比较paird means和independent means的区别有:

  1. 前者的点估计是每个pair的差值的平均数,后者的点估计是每一组的平均数的差值
  2. 前者的se是是pair的差值的ss,然后s/sqrtns/sqrt{n},后者的se是两组se的二范数。
  3. 前者的假设是,后者的假设是组内和组件独立不相关,size/skew。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

入门 | 理解深度学习中的学习率及多种选择策略

2606
来自专栏ATYUN订阅号

用Keras进行深度学习模式的正则化方法:Dropout

Dropout是神经网络和深度学习模型的简单而有效的正则化技术。 在这篇文章中,你将发现Dropout正则化技术,以及如何使用Keras将其应用于Python中...

3515
来自专栏量化投资与机器学习

【机器学习课程】经典算法之——AdaBoost在量化投资中的应用(附代码和很多论文资料)

1算法简介 AdaBoost是由Yoav Freund和Robert Schapire提出自适应增强的一种机器学习方法。AdaBoost算法的自适应在于:前一个...

1806
来自专栏人工智能头条

李理:卷积神经网络之Batch Normalization的原理及实现

1852
来自专栏增长技术

Android 图像处理(1)

操作的对象是每个像素,我们可以改变图像的色相(Hue)、饱和度(Saturation)、明度(Luminance) ColorActivity

712
来自专栏机器之心

教程 | 如何为单变量模型选择最佳的回归函数

2879
来自专栏磐创AI技术团队的专栏

损失函数综述

1274
来自专栏量子位

在Keras+TF环境中,用迁移学习和微调做专属图像识别系统

图1:CompCars数据集的示例图像,整个数据集包含163家汽车制造商,1713种车型 王小新 编译自 Deep Learning Sandbox 量子位 出...

3245
来自专栏ATYUN订阅号

【学术】在Google Sheet中创建深度神经网络

深度卷积神经网络并不像听起来的那样令人生畏。我将向你们展示我在Google Sheet中做的一个实现。复制它,你可以尝试一下,看看不同的因素如何影响模型的预测。...

2836
来自专栏Star先生的专栏

Java 实现高斯模糊算法处理图像

高斯模糊(英语:Gaussian Blur),也叫高斯平滑,是在Adobe Photoshop、GIMP以及Paint.NET等图像处理软件中广泛使用的处理效果...

5720

扫码关注云+社区