首页
学习
活动
专区
工具
TVP
发布

Pytorch实践

深度学习框架Pytorch实践
专栏作者
35
文章
98803
阅读量
40
订阅数
迁移学习在自然语言处理领域的应用
       迁移学习近年来在图形领域中得到了快速的发展,主要在于某些特定的领域不具备足够的数据,不能让深度模型学习的很好,需要从其它领域训练好的模型迁移过来,再使用该模型进行微调,使得该模型能很好地拟合少量数据的同时又具备较好的泛化能力(不过拟合)。
CodeInHand
2018-12-01
9450
深度学习之句子表达
在之前的文章里,我们介绍了词语表达的训练,使用skip-gram模型训练word2vec。既然词语能表达,那句子也同样能被分布式的向量表示。这里主要介绍几种句子的表示方法。 1. Mikolov在word2vec模型上改进,得到的paragraph vector 类似于CBOW和skip-gram的两种方法。都是基于对paragraph进行embedding表示,并进行joint-train得到。 (1)使用paragraph embedding预测句子中的每个词概率。对每个paragraph构建Matri
CodeInHand
2018-04-08
1.5K0
AI与深度学习-2017年总结
2017年AI界出现了很多进展,虽说没有像之前CNN、RNN、GAN出现时的转折,但也有很大的突破,特别是当Alpha Zero出现,强化学习的地位一下子飞升。下面将从算法、模型、框架以及数据出发,简单总结一下2017年的动态。 No.1 算法 强化学习当属2017年的重头戏,从AlphaZero出现并战胜AlphaGo开始引爆。AlphaGo是基于历史数据进行有监督学习,进阶版本的Alpha Master是通过self-learning自己与自己对战不断提升得到。但AlphaZero是通过强化学习从零开始
CodeInHand
2018-03-26
7610
深度学习过程中的优化算法
神经网络的训练过程实质是得到最优化目标函数的过程,常见的目标函数MSE Loss、Cross Entropy Loss、NLL Loss等,网络训练过程就是最小化Loss的过程。Loss可以理解为模型预测值与真实值之间的差距。一般这些Loss函数是凸函数,可以使用最优化的相关算法最小化Loss,具体包括随机梯度下降、共轭梯度下降、牛顿法、拟牛顿法等。归功于神经网络的backward过程,使得梯度相关的搜索算法得以应用。下面简单介绍神经网络训练过程的几种优化方法。 一.基本算法 一阶优化算法 1.梯度下降 假
CodeInHand
2018-03-26
1.1K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档