前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >模型的独立学习方式

模型的独立学习方式

作者头像
石晓文
发布2019-11-18 13:43:04
1K0
发布2019-11-18 13:43:04
举报
文章被收录于专栏:小小挖掘机小小挖掘机

概述

针对一个给定的任务,通常采取的步骤是:准确一定非规模的数据集,这些数据要和真实数据集的分布一致;然后设定一个优化目标和方法;然后在训练集上训练模型。

不同的模型往往都是从零开始训练的,一切知识都需要从训练集中得到,这就意味着每个任务都需要大量的训练数据。在实际应用中,我们面对的任务很难满足上述需求,比如训练任务和目标任务的数据分布不一致,训练数据集过少等。这时机器学习的任务就会受到限制,因此人们开始关注一些新的任务学习方式。本篇文章主要介绍一些“模型独立的学习方式”,比如:集成学习、协同学习、自学习、多任务学习、迁移学习、终身学习、小样本学习、元学习等。

集成学习

集成学习(Ensemble Learning)就是通过某种策略将多个模型集成起来,通过群体决策来提高决策准确率。集成学习首要的问题是如何集成多个模型,比较常用的集成策略有直接平均、加权平均等。

集成学习可以分为:Boosting、Bagging、Stacking,这三种的详细区分和流程可以参考《推荐系统开发实战》一书中第八章 点击率预估部分。本文中主要介绍集成学习中的Boosting学习和AdaBoost算法。

集成学习的思想可以采用一句古老的谚语来描述:“三个臭皮匠,顶个诸葛亮”。但是一个有效的集成需要各个基模型的差异尽可能的大。为了增加模型之间的差异性,可以采取Bagging类和Boosting类两类方法。

Bagging类方法

Bagging类方法是通过随机构造训练样本、随机选择特征等方法来提高每个基模型的独立性,代表性方法有Bagging和随机森林。

  • Bagging(Bootstrap Aggregating)是一个通过不同模型的训练数据集的独立性来提高不同模型之间的独立性。我们在原始训练集上进行有放回的随机采样,得到M比较小的训练集并训练M个模型,然后通过投票的方法进行模型集成。
  • 随机森林(Random Forest)是在Bagging的基础上再引入了随机特征,进一步提升每个基模型之间的独立性。在随机森林中,每个基模型都是一棵树。

随机森林的算法步骤如下:

  • 从样本集中通过重采样的方式产生n个样本
  • 假设样本特征数目为a,对n个样本选择a中的k个特征,用建立决策树的方式获得最佳分割点
  • 重复m次,产生m棵决策树 -多数投票机制来进行预测

需要注意的一点是,这里m是指循环的次数,n是指样本的数目,n个样本构成训练的样本集,而m次循环中又会产生m个这样的样本集

Boosting类方法

Boosting类方法是按照一定的顺序来先后训练不同的基模型,每个模型都针对前续模型的错误进行专门训练。根据前序模型的结果,来提高训练样本的权重,从而增加不同基模型之间的差异性。Boosting类方法的代表性方法有AbaBoost,GBDT,XGB,LightGBM等。

关于GBDT的介绍同样可以参考《推荐系统开发实战》一书。

Boosting类集成模型的目标是学习一个加性模型(additive model) ,其表达式如下:

其中为弱分类器,或基分类器,为弱分类器的集成权重,称为强分类器。

Boosting类方法的关键是如何训练每个弱分类器以及对应的权重。为了提高集成的效果,应尽可能使得每个弱分类器的差异尽可能大。一种有效的方法是采用迭代的策略来学习每个弱分类器,即按照一定的顺序依次训练每个弱分类器。

在学习了第m个弱分类器之后,增加分错样本的权重,使得第个弱分类器“更关注”于前边弱分类器分错的样本。这样增加每个弱分类器的差异,最终提升的集成分类器的准确率。这种方法称为AdaBoost(其实其他的Boost模型采用的也是类似的策略,根据前m-1颗树的误差迭代第m颗树)。

AdaBoost算法

AdaBoost算法是一种迭代式的训练算法,通过改变数据分布来提高弱分类器的差异。在每一轮训练中,增加分错样本的权重,减少对分对样本的权重,从而得到一个新的数据分布。

以两类分类为例,弱分类器,AdaBoost算法的训练过程如下所示,最初赋予每个样本同样的权重。在每一轮迭代中,根据当前的样本权重训练一个新的弱分类器。然后根据这个弱分类器的错误率来计算其集成权重,并调整样本权重。

AdaBoost算法流程

AdaBoost算法的统计学解释

AdaBoost算法可以看做是一种分步优化的加性模型,其损失函数定义为:

其中

假设经过次迭代,得到:

则第次迭代的目标是找一个和使得下面的损失函数最小。

令 ,则损失函数可以表示为:

因为,有:

其中为指示函数。

将损失函数在处进行二阶泰勒展开,有:

从上式可以看出,当时,最优的分类器为使得在样本权重为时的加权错误率最小的分类器。

在求解出之后,上述的损失函数可以写为:

其中为分类器的加权错误率

求上式关于的导数并令其为0,得到

AdaBoost算法的优缺点优点:

  • 作为分类器精度很高
  • 可以使用各种算法构建子分类器,AdaBoost提供的是一个框架
  • 使用简单分类器时,计算出的结果可理解,且构造简单
  • 不需要做特征筛选
  • 不同担心过拟合

缺点:

  • 容易收到噪声干扰
  • 训练时间长,因为需要遍历所有特征
  • 执行效果依赖于弱分类器的选择

自训练和协同训练

监督学习虽然准确度上有一定的保证,但往往需要大量的训练数据,但在一些场景中标注数据的成本是非常高的,因此如何利用大量的无标注数据提高监督学习的效率,有着十分重要的意义。这种利用少量样本标注数据和大量样本标注数据进行学习的方式称之为半监督学习(Semi-Supervised Learning,SSL)。

本节介绍两种无监督的学习算法:自训练和协同训练。

自训练

自训练(Slef-Training)也叫自训练(Self-teaching)或者自举法(boostStrapping)。

自训练的思路是:利用已知的标注数据训练一个模型,利用该模型去预测无标注的样本数据,然后将置信度较高的样本以及其伪标签加入训练集,然后重新训练模型,进行迭代。下图给出了自训练的算法过程。

自训练算法过程

自训练和密度估计中EM算法有一定的相似之处,通过不断地迭代来提高模型能力。但自训练的缺点是无法保证每次加入训练集的样本的伪标签是正确的。如果选择样本的伪标签是错误的,反而会损害模型的预测能力。因此自训练最关键的步骤是如何设置挑选样本的标准。

协同训练

协同训练(Co-Training)是自训练的一种改进方法,通过两个基于不同视角的分类器来相互促进。很多数据都有相对独立的不同视角。比如互联网上的每个网页都由两种视角组成:文字内容和指向其他网页的链接。如果要确定一个网页的类别,可以根据文字内容来判断,也可以根据网页之间的链条关系来判断。

假设一个样本,其中分别表示两种不同视角的特征,并满足下面两个假设:

  • (1):条件独立性,即给定样本标签y时,两种特征条件独立
  • (2):充足和冗余性,即当数据充分时,每种视角的特征都可以足以单独训练出一个正确的分类器。

令为需要学习的真实映射函数,和分别为两个视角的分类器,有:

其中为样本的取值空间。

由于不同视角的条件独立性,在不同视角上训练出来的模型就相当于从不同的视角来理解问题,具有一定的互补性。协同训练就是利用这种互补行来进行自训练的一种方法。首先在训练集上根据不同视角分别训练两个模型和然后用和在无标记数据集上进行预测,各选取预测置信度比较高的样本加入到训练集,重新训练两个不同视角的模型,并不断重复这个过程(需要注意的是协同算法要求两种视图时条件独立的,如果两种视图完全一样,则协同训练退化成自训练算法)。

协同训练的算法过程如下:

多任务学习

一般的机器学习模型是针对单个任务进行的,不同任务的模型需要在各自的训练集上单独学习得到。而多任务学习(Multi-task learning)是指同时学习多个相关任务,让 这些任务在学习的过程中共享知识,利用多个任务之间的相关性来改进模型的性能和泛化能力。

多任务学习可以看做时一种归纳迁移学习(Inductive Transfer Learning),即通过利用包含在相关任务中的信息作为归纳偏置(Inductive Bias)来提高泛化能力。

多任务学习的主要挑战在于如何设计多任务之间的共享机制,在传统的机器学习任务中很难引入共享信息,但是在神经网络中就变得简单了许多,常见的以下四种:

  • 硬共享模式:让不同任务的神经网络模型共同使用一些共享模块来提取一些通用的特征,然后再针对每个不同的任务设置一些私有模块来提取一些任务特定的特征。
  • 软共享模式:不显式设置共享模块,但每个任务都可以从其他任务中“窃取”一些信息来提高自己的能力。窃取的方式包括直接复制使用其他任务的隐状态,或使用注意力机制来主动选择有用的信息。
  • 层次共享模式:一般神经网络中不同层抽取的特征类型不同,底层一般抽取一些低级的局部特征,高层抽取一些高级的抽象语义特征。因此如果多任务学习中不同任务也有级别高低之分,那么一个合理的共享模式是让低级任务在底层输出,高级任务在高层输出。
  • 共享-私有模式:一个更加分工明确的方式是将共享模块和任务特定(私有)模块的责任分开。共享模块捕捉一些跨任务的共享特征,而私有模块只捕捉和特点任务相关的特征。最终的表示由共享特征和私有特征共同构成。

在多任务学习中,每个任务都可以有自己单独的训练集。为了让所有任务同时学习,我们通常会使用交替训练的方式来“近似”的实现同时学习,下图给出了四种常见的共享模式图

四种常见的共享模式图

多任务学习的流程可以分为两个阶段:

  • (1)联合训练阶段:每次迭代时,随机挑选一个任务,然后从这个任务中随机选择一些训练样本,计算梯度并更新参数
  • (2)单任务精调阶段:基于多任务学习到的参数,分别在每个单独任务进行精调,其中单任务精调阶段为可选阶段。当多个任务的差异性比较大时,在每个单任务上继续优化参数可以进一步提升模型能力。

假设有M个相关任务,其模型分别为,多任务学习的联合目标函数为所有任务损失函数的线性加权:

其中为第m个任务的损失函数,是第m个任务的权重,表示包含了共享模块和私有模块在内的所有参数。

多任务学习中联合训练阶段的具体过程如下所示:

多任务学习通常比单任务学习获得更好的泛化能力,主要由于以下几个原因:

  • 1.多任务学习在多个数据集上进行训练,训练集范围更大,且多任务之间具有一定的相关性,相当于是一种隐式的数据增强,可以提高模型的泛化能力。
  • 2.多任务学习中的共享模块需要兼顾所有任务,在一定程度上避免了模型过拟合到单个任务的训练集,可以看做是一种正则化。
  • 3.多任务学习比单任务学习可以获得更好的表示
  • 4.在多任务学习中,每个任务都可以“选择性”利用其他任务中学习到的隐藏特征,从而提高自身的能力。

迁移学习

标准机器学习的前提假设只训练数据和测试数据的分布是相同的。如果不满足这个假设,在训练集上学习到的模型在测试集上的表现会比较差。如何将相关任务的训练数据中学习到的可泛化知识迁移到目标任务中,就是迁移学习(Transfer Learning)要解决的问题。

迁移学习根据不同的迁移方式又分为两个类型:归纳迁移学习(Inductive Transfer Learning)和推导迁移学习(Transductive Transfer Learning)。这两个类型分别对应两个机器学习的范式:归纳学习(Inductive Learning)和转导学习(Transductive Learning)。一般的机器学习任务都是指归纳学习,即希望再训练集上学习到使得期望风险最小的模型。而转导学习的目标是学习一种在给定测试集上错误率最小的模型,在训练阶段可以利用测试集的信息。

归纳迁移学习

一般而言,归纳迁移学习要求源领域和目标领域时相关的,并且源领域有大量的训练样本,这些样本可以是有标注的样本也可以时无标注的样本。

  • 当源领域只有大量无标注数据时,源任务可以转换为无监督学习任务,比如自编码和密度估计,通过无监督任务学习一种可迁移的表示,然后将这些表示迁移到目标任务上。
  • 当源领域有大量的标注数据时,可以直接将源领域上训练的模型迁移到目标领域上。归纳迁移学习一般有下面两种迁移方式:
  • 基于特征的方式:将预训练模型的输出或者中间隐藏层的输出作为特征直接加入到目标任务学习模型中。目标任务的学习模型可以时一般的浅层分类器(比如支持向量机等)或一个新的神经网络模型。
  • 精调的方式:在目标任务上复用预训练模型的部分参数,并对其参数进行精调。

假设预训练的模型是一个深层神经网络,不同层的可迁移性也不尽相同。通常来说网络的低层学习一些通用的低层特征,中层或者高层学习抽象的高级语义特征,而最后几层一般学习和特定任务相关的特征。因此根据目标任务的自身特点以及和源任务的相关性,可以针对性的选择预训练模型的不同层来迁移到目标任务中。

将预训练模型迁移到目标任务中通常会比从零开始学习的方式好,主要体现在以下三点:

  • (1)初始模型的性能一般比随机初始化的模型要好
  • (2)训练时模型的学习速度比从零开始学习要快,收敛性更好
  • (3)模型的最终性能更好,具有更好的泛化性

归纳迁移学习和多任务学习也比较类似,但是有下面两点区别:

  • (1)多任务学习是同时学习多个不同任务,而归纳迁移学习通常分为两个阶段,即源任务上的学习阶段,和目标任务上的迁移学习阶段
  • (2)归纳迁移学习是单向的知识迁移,希望提高模型在目标任务上的性能,而多任务学习时希望提高所有任务的性能。
转导迁移学习

转导迁移学习是一种从样本到样本的迁移,直接利用源领域和目标领域的样本进行迁移学习。转导迁移学习可以看作是一种特殊的转导学习。转导迁移学习通常假设源领域有大量的标注数据,而目标领域没有(或少量)的标注数据,但是有大量的无标注数据。目标领域的数据在训练阶段是可见的。

转导迁移学习的一个常见子问题时领域适应(Domain Adaptation),在领域适应问题中,一般假设源领域和目标领域有相同的样本空间,但是数据分布不同。

根据贝叶斯公式,,因此数据分布的不一致通常由三种情况造成。

  • (1)协变量偏移(Covariate Shift):源领域和目标领域的输入边际分布不同,但后验分布相同,即学习任务相同
  • (2)概念偏移(Concept Shift):输入边际分布相同,但后验分布不同,即学习任务不同
  • (3)先验偏移(Prior Shift):源领域和目标领域中的输出先验分布不同,条件分布相同。在这样的情况下,目标领域必须提供一定数量的标注样本。

终生学习

终生学习(Lifelong Learning)也叫持续学习(Continuous Learning)是指像人类一样具有持续不断的学习能力,根据历史任务中学到的经验和知识来帮助学习不断出现的新任务,并且这些经验和知识是持续累积的,不会因为新的任务而忘记旧的知识。

在终生学习中,假设一个终生学习算法已经在历史人任务上学习到一个模型,当出现一个新任务时,这个算法可以根据过去在个任务上学习到的知识来帮助第个任务,同时积累所有的个任务上的知识。

在终生学习中,一个关键的问题是如何避免灾难性遗忘(Catastrophic Forgetting),即按照一定顺序学习多个任务时,在学习新任务的同时不忘记先前学习到的历史知识。比如在神经网络模型中,一些参数对任务非常重要,如果在学习任务时被改变了,就可能给任务造成不好的影响。

解决灾难性遗忘的方法有很多,比如弹性权重巩固方法(Elastic Weight Coonsolidation)。

元学习

根据没有免费午餐定理,没有一种通用的学习算法在所有任务上都有效。因此当使用机器学习算法实现某个任务时,我们通常需要“就事论事”,根据任务的特定来选择合适的模型、损失函数、优化算法以及超参数。

而这种动态调整学习方式的能力,称为元学习(Meta-Learning),也称为学习的学习(Learning to Learn)。

元学习的目的时从已有的任务中学习一种学习方法或元知识,可以加速新任务的学习。从这个角度来说,元学习十分类似于归纳迁移学习,但元学习更侧重从多种不同的任务中归纳出一种学习方法。

这里主要介绍两种典型的元学习方法:基于优化器的元学习和模型无关的元学习。

基于优化器的元学习

目前神经网络的的学习方法主要是定义一个目标损失函数,并通过梯度下降算法来最小化

其中为第步时的模型参数,为梯度,为学习率。在不同的任务上,通常选择不同的学习绿以及不同的优化方法,比如动量法,Adam等。这些优化算法的本质区别在于更新参数的规则不同,因此一种很自然的元学习就是自动学习一种更新参数的规则,即通过另一个神经网络(比如循环神经网络)来建模梯度下降的过程。下图给出了基于优化器的元学习示例。

基于优化器的元学习示例

我们用函数来预测第步时参数更新的差值,函数称为优化器,输入是当前时刻的梯度值,输出时参数的更新差值,这样第步的更新规则可以写为:

其中为优化器的参数。

学习优化器的过程可以看做是一种元学习过程,其目标是找到一个适用于多个不同任务的优化器。在标准的梯度下降中,每步迭代的目标是使得下降。而在优化器的元学习中,我们希望在每步迭代的目标是最小,具体的目标函数为:

其中为最大迭代次数,为每一步的权重,一般可以设置。由于LSTM网络可以记忆梯度的历史信息,学习到的优化器可以看做是一个高阶的优化方法。

模型无关的元学习

模型无关的元学习(Model-Agnostic Meta-Learning, MAML)是一个简单的模型无关、任务无关的元学习算法。假设所有的任务都来自一个任务空间,其分布为,我们可以在这个任务空间的所有任务上学习一种通用的表示,这种表示可以经过梯度下降方法在一个特定的单任务上进行精调。假设一个模型为,如果我们让这个模型适应到一个新任务上,通过一步或多步的梯度下降更新,学习到的任务适配参数为:

其中为学习率,这里的可以理解为关于的函数,而不是真正的参数更新。

MAML的目标是学习一个参数使得其经过一个梯度迭代就可以在新任务上达到最好的性能。

即在所有任务上的元优化(Meta-Optimization)也采用梯度下降来进行优化,即:

其中为元学习率,这里为一个真正的参数更新步骤。需要计算关于的二阶梯度,但用一级近似通常也可以达到比较好的性能。

MAML的具体过程算法如下:

总结

目前神经网路的学习机制主要是以监督学习为主,这种学习方式得到的模型往往是定向的,也是孤立的,每个任务的模型都是从零开始训练的,一切知识都需要从训练数据中得到,导致每个任务都需要大量的训练数据。本章主要介绍了一些和模型无关的学习方式,包括集成学习、自训练和协同训练、多任务学习、迁移学习、元学习,这些都是深度学习中研究的重点。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-11-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小小挖掘机 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 集成学习
    • Bagging类方法
      • Boosting类方法
        • AdaBoost算法
        • 自训练和协同训练
          • 自训练
            • 协同训练
            • 多任务学习
            • 迁移学习
              • 归纳迁移学习
                • 转导迁移学习
                • 终生学习
                • 元学习
                  • 基于优化器的元学习
                    • 模型无关的元学习
                    • 总结
                    领券
                    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档