首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

7种常见的迁移学习

最近调研了不少迁移学习的工作,本文选取7种常见的迁移学习分享给大家。因为我感觉迁移学习在NLP领域的很多任务中有很大的利用价值,毕竟高质量的标注数据是很少的,而人工标注费时费力,而且质量不一定好。

1. Domain Adaptation 领域自适应

1.1 动机

领域自适应是一种迁移学习,它将不同源领域的数据或特征映射到同一个特征空间,以便于利用其源领域数据或特征来增强目标领域的训练,进而达到更好的训练效果。领域自适应学习不要求训练数据和测试数据一定具有相同的分布。

1.2 目的

利用数据或特征更多的源领域来提升数据或特征相对较少的目标领域的模型性能。

1.3论文和代码

论文:https://arxiv.org/abs/1707.05956,ICCV 2017

代码:https://github.com/poppinace/TAISL

推荐理由:无监督的领域自适应和张量表示。传统的领域自适应一般是针对向量的本文换了一种方式,值得借鉴。

论文迁移学习在对话系统领域论文也不少,简单推荐几篇:

https://arxiv.org/abs/1609.02846

https://arxiv.org/abs/1808.02586

http://www.aclweb.org/anthology/C18-1103

https://arxiv.org/abs/1111.0048

http://ttic.uchicago.edu/~klivescu/papers/margolis_etal_danlp2010.pdf

2. Online transfer learning 在线迁移学习

在线迁移学习的框架

2.1 动机

把在线学习和迁移学习相结合,用于训练的源领域的数据在开始训练前并不是全部确定的,而是随着时间的推移而不断增加。

2.2 目的

充分理由源领域的数据进行训练,以便于更好的迁移到目的领域。

2.3 论文和代码

论文:https://icml.cc/Conferences/2010/papers/219.pdf,AIJ 2014.

代码:http://stevenhoi.org/otl

推荐理由:把在线学习和迁移学习相结合,这更符合很实际情况下源领域数据一点一点源源不断的积累的情况。这是在线迁移学习的第一个公开的研究成果,也是目前最值得学习的研究成果。

3. Lifelong transfer learning 终身迁移学习

3.1动机

不再单单是在特定领域终身学习,而是通过终身不断的学习来提升源领域到目标领域的迁移效果。

3.2 目的

通过终身不断的学习来增强源领域到目标领域的迁移。

3.3 论文和代码

论文:http://www.cis.upenn.edu/~eeaton/papers/BouAmmar2015Autonomous.pdf, IJCAI 2015.

代码:https://github.com/haithamb/pginterella

推荐理由:终身策略梯度强化学习与自主跨领域知识转移相结合,很适合缺少训练数据的决策类任务,比如任务型对话系统中的DPL(对话策略学习)。目前这方面工作极少,感觉很适合研究。

4. Heterogeneous Transfer Learning 异构迁移学习

4.1 动机

迁移学习一般不要求训练数据和测试数据有相同的分布,而异构迁移学习连训练数据和测试数据的特征维度也不再要求一样。

4.2 目的

训练数据和测试数据的特征维度也允许不同,这样更有利于扩大迁移学习的适用范围。

4.3 论文和代码

论文:http://proceedings.mlr.press/v95/shen18b/shen18b.pdf, ACML 2018。

代码:https://github.com/Isilendil/OSTL

推荐理由:基于稀疏特征变换的无监督异构域自适应,用稀疏特征变换来做异构迁移学习很贴近实际情况。

5. Deep Transfer Learning 深度迁移学习

5.1 动机

深度学习具有非常强的数据拟合能力,可学习到泛化能力更强的特征表达,而迁移学习能学习到领域无关的特征表达。如果通过深度神经网络利用其他领域的知识,能充分利用神经网络来学习所有领域共同具有的特征表示。

5.2 目的

将深度学习与迁移学习相结合,同时利用深度学习和迁移学习的优势。

5.3 论文和代码

论文:https://arxiv.org/abs/1608.06019,NIPS 2016。

代码:https://github.com/tensorflow/models/tree/master/research/domain_adaptation

推荐理由:

6. Reinforcement Transfer Learning 强化迁移学习

6.1 动机

强化学习需要多步决策,其实在决策时如果数据较少,可能可以尝试策略的迁移学习。

6.2 目的

将强化学习与迁移学习相结合,同时利用强化学习和迁移学习的优势。

6.3 论文和代码

论文:https://arxiv.org/abs/1810.06667,arXiv 1810.06667。

代码:https://github.com/yaserkl/TransferRL

推荐理由:深度学习+强化学习+迁移学习做文本的自动摘要,充分理由三者的优势互补,很适合学习。

7. Adversarial transfer learning 对抗迁移学习

7.1 动机

迁移学习一般是单向的迁移,那么如果双向进行对抗的迁移学习的话,效果可能会更好,因为可以互相迁移而共享共有的数据和特征。

7.2 目的

双向对抗的迁移学习,尽最大努力的充分利用源领域和目标领域的数据和特征。

7.3 论文和代码

论文:https://arxiv.org/abs/1712.02560

代码:

推荐理由:无监督领域自适应的最大分类器差异,让分类器之间不断对抗迁移,以便于提升效果。

开通赞赏不是为这点小钱,已经手动调低金额。等赞赏积累到够买书了,我就买AI相关的书找作者签字,然后邮寄给一些幸运者(比如关注时间长、平时活跃等)。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181129G1L8QF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券