首页
学习
活动
专区
工具
TVP
发布

JNing的专栏

专栏作者
694
文章
966055
阅读量
50
订阅数
深度学习: greedy layer-wise pre-training (逐层贪婪预训练)
每次只训练网络中的一层,即我们首先训练一个只含一个隐藏层的网络,仅当这层网络训练结束之后才开始训练一个有两个隐藏层的网络,以此类推。
JNingWei
2018-09-27
2K0
深度学习: 参数初始化
好的开始是成功的一半。 为了让你的模型跑赢在起跑线 ε=ε=ε=(~ ̄▽ ̄)~ ,请慎重对待参数初始化。
JNingWei
2018-09-27
1.5K0
深度学习: 迁移学习 (Transfer Learning)
但是如果 新任务 和旧任务类似,同时 新任务 缺乏足够数据 去从头训练一个新模型,那该怎么办呢?
JNingWei
2018-09-27
2.3K0
深度学习: 学习率 (learning rate)
ωn←ωn−η∂L∂ωnωn←ωn−η∂L∂ωn\omega^{n} \leftarrow \omega^{n} - \eta \frac{\partial L}{\partial \omega^{n}}
JNingWei
2018-09-27
9.4K0
深度学习: 模型压缩
预训练后的深度神经网络模型往往存在着严重的 过参数化 问题,其中只有约5%的参数子集是真正有用的。为此,对模型进行 时间 和 空间 上的压缩,便谓之曰“模型压缩” 。
JNingWei
2018-09-27
1.7K0
没有更多了
社区活动
Python精品学习库
代码在线跑,知识轻松学
热点技术征文第五期
新风口Sora来袭,普通人该如何把握机会?
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档