首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >《统计学习方法》笔记一 统计学习方法概论

《统计学习方法》笔记一 统计学习方法概论

作者头像
闪电gogogo
发布2018-10-11 15:59:27
6460
发布2018-10-11 15:59:27
举报

统计学习

统计学习时关于计算机基于数据构建概率统计模型 并运用模型 对数据进行预测与分析

统计学习的三要素:

方法 = 模型+策略+算法

统计学习由监督学习、非监督学习、半监督学习和强化学习等组成。

实现统计学习方法的具体步骤如下:

(1)得到一个有限的训练数据集合;

(2)确定包含所有可能的模型的假设空间,即学习模型的集合;

(3)确定模型选择的准则,即学习的策略;

(4)实现求解最优模型的算法,即学习的算法;

(5)通过学习方法选择最优模型;

(6)利用学习的最优模型对数据进行预测或分析。

监督学习

一些基本概念:

  • 输入空间、特征空间、输出空间

  输入与输出所有可能取值的集合成为输入空间输出空间。每个具体的输入是一个实例,通常由特征向量表示,所有特征向量存在的空间成为特征空间

  特征空间每一维对应一个特征,有时对输入空间与特征空间不加以区分,有时假设输入空间与特征空间为不同的空间,将实例从输入空间映射到特征空间。模型实际上都是定义在特征空间上的。

根据输入、输出变量的不同类型,对预测任务给予不同的名称:

回归问题:输入、输出变量均为连续变量的预测问题;

分类问题:输出变量为有限个离散变量的预测问题;

标注问题: 输入、输出变量均为变量序列的预测问题

监督学习的任务就是学习一个模型,应用这一模型,对给定的输入预测相应的输出,这个模型的一般形式为决策函数:Y=f(X)或者条件概率分布P(Y|X)

统计学习三要素

模型

模型就是要学习的条件概率分布或决策函数。模型的假设空间包含所有可能的条件概率分布或决策函数。

空间用F表示,假设空间可以定义为决策函数的集合,即:

F通常是由一个参数向量来决定的条件概率分布族

假设空间也可以定义为条件概率的集合

此时有

策略

  • 经验风险最小化
  • 结构风险最小化(正则化)

有了假设空间,考虑如何在假设空间中选取最优模型,因此引入损失函数和风险函数等来度量模型的好坏。

损失函数度量模型一次预测的好坏,风险函数度量平均意义下模型预测的好坏。

损失函数是f(X)和Y的非负实值函数,记做 L(Y,f(X))

常用的损失函数:

这是理论上模型f(X)关于联合分布P(X,Y)的平均意义下的损失,称为风险函数或期望损失

经验风险或经验损失:

选择令期望损失值最小的模型即为学习的目标,但是联合分布未知因此Rexp不能直接计算,但如知道了联合分布,可直接计算条件概率分布P(Y|X),也就不需要学习。因此监督学习成为一个病态问题。

根据大数定律,当样板容量趋于无穷,经验风险趋于期望风险,但实际中训练样本数量有限,因此用经验风险估计期望风险不理想,需进行矫正,则涉及监督学习的两个基本策略:经验风险最小化和结构风险最小化。

经验风险最小化(empirical risk minimization,ERM)

ERM认为,经验风险最小的模型最优,则最优模型可转换为:

当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化就等价于极大似然估计。

F为假设空间,当样本容量足够大,学习效果较好,但样本容量很小时,容易过拟合,则引申出结构风险最小化。

结构风险最小化(structural risk minimization,SRM)/正则化

在ERM基础上加上表示模型复杂度的正则化项或罚项,定义如下

其中J(f)为模型的复杂度,是定义在假设空间F上的泛函,模型f越复杂,J(f)越大。lamda是系数,≥0,用以权衡ERM和模型复杂度。

则SRM最小化将求最优模型转换为求解最优问题:

当模型是条件概率分布、损失函数是对数损失函数、模型复杂度由模型的先验概率表示时,结构风险最小化就等价于最大后验概率估计。

算法

指学习模型的具体计算方法

模型评估与模型选择 

训练误差与测试误差

正则化与交叉验证

正则化一般形式如下:

第一项为经验风险,第二项为正则化项目,正则化项可取不同的形式。经验风险较小的模型可能较复杂(有多个非零参数),则第二项模型复杂度会较大,正则化的作用是选择经验风险与模型复杂度同时小的模型。

从贝叶斯估计角度看,正则化项对应模型的先验概率,可假设复杂的模型有较大的先验概率,简单的模型有较小的先验概率。

若样本充足,可随机将数据集分为训练集、验证集和测试集,验证集用于模型选择,在学习到的不同复杂度的模型中,选择对验证集有最小预测误差的模型。但实际中数据不够,因此采用交叉验证,即重复利用数据,将给定数据划分为训练集与测试集,反复训练、测试及模型选择。

  • 简单交叉验证

  随机将数据分为训练集和测试集,用训练集在各条件下训练模型,在测试集上评价各个模型的测试误差,选出测试误差最小的模型

  • S折交叉验证

  随机将数据切分为S个互不相交的大小相同的子集,利用S-1个子集的数据训练模型,利用余下的子集测试模型,重复进行算出S次评测中平均测试误差最小的模型

  • 留一交叉验证

  当S=N时,N为给定数据集的容量

泛化能力

指由该方法学习到的模型对未知数据的预测能力。泛化误差相当于所学习到的模型的期望风险。

泛化误差上界(泛化误差概率上界)

它是样本容量的函数,样本容量增加,泛化上界趋于0;是假设空间容量的函数,假设空间容量越大,模型越难学,泛化误差上界越大。

R(f)为期望风险,R^为经验风险。

生成模型与判别模型

分类问题

标注问题

标注问题可认为是分类问题的推广,输入是一个观测序列,输出是一个标记序列或状态序列。

评价标注模型的指标与评价分类模型的指标一样,常用的有标注准确率、精确率和召回率。

标注常用的统计学习方法有:隐马尔可夫模型、条件随机场。

回归问题

回归用于预测输入变量和输出变量之间的关系,回归模型表示从输入变量到输出变量之间映射的函数,回归问题的学习等价于函数拟合。

回归问题按照输入变量的个数,分为一元回归和多元回归,按照输入变量和输出变量之间关系的类型即类型的模型,分为线性回归和非线性回归。

回归常用的损失函数是平方损失函数,例最小二乘法。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018-10-10 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 统计学习
  • 监督学习
  • 统计学习三要素
    • 模型
      • 策略
        • 算法
        • 模型评估与模型选择 
          • 训练误差与测试误差
          • 正则化与交叉验证
          • 泛化能力
          • 生成模型与判别模型
          • 分类问题
          • 标注问题
          • 回归问题
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档