首页
学习
活动
专区
工具
TVP
发布

AutoML(自动机器学习)

该专栏文章如果出现格式问题,可以去http://www.cnblogs.com/marsggbo/
专栏作者
392
文章
569063
阅读量
55
订阅数
ICCV 2021 | BN-NAS: 只训练BN层来自动搜索模型
很明显这两个步骤都非常耗时,所以这篇论文打起了 batch-normalization (BN) 的主义,即
marsggbo
2021-09-14
3240
【论文笔记系列】- Understanding and Simplifying One-Shot Architecture Search
由上图我们可以看到(以最左图为例),one-shot模型的准确率从0.1~0.8, 而stand-alone(即retrain之后的子模型)的准确率范围却只是0.92~0.945。为什么one-shot模型之间的准确率差别会更大呢?
marsggbo
2020-06-29
9640
理解Pytorch中LSTM的输入输出参数含义
在介绍LSTM各种参数含义之前我们还是需要先用一个例子(参考LSTM神经网络输入输出究竟是怎样的?Scofield的回答)来理解LSTM。
marsggbo
2020-06-12
5.2K0
Pytorch Sampler详解
其原理是首先在初始化的时候拿到数据集data_source,之后在__iter__方法中首先得到一个和data_source一样长度的range可迭代器。每次只会返回一个索引值。
marsggbo
2020-06-12
9240
Bag of Tricks for Image Classification with Convolutional Neural Networks
当我们有一定资源后,当然希望能充分利用起来,所以通常会增加batch size来达到加速训练的效果。但是,有不少实验结果表明增大batch size可能降低收敛率,所以为了解决这一问题有人以下方法可供选择:
marsggbo
2019-09-04
6460
Pytorch数据读取详解
数据库DataBase + 数据集DataSet + 采样器Sampler = 加载器Loader
marsggbo
2019-08-14
1.2K0
一文弄懂Pytorch的DataLoader, DataSet, Sampler之间的关系
首先我们看一下DataLoader.__next__的源代码长什么样,为方便理解我只选取了num_works为0的情况(num_works简单理解就是能够并行化地读取数据)。
marsggbo
2019-08-14
3.4K0
一文弄懂Pytorch的DataLoader, DataSet, Sampler之间的关系
首先我们看一下DataLoader.next的源代码长什么样,为方便理解我只选取了num_works为0的情况(num_works简单理解就是能够并行化地读取数据)。
marsggbo
2019-08-06
1.3K0
Pytorch中的数据加载艺术
数据库DataBase + 数据集DataSet + 采样器Sampler = 加载器Loader
marsggbo
2019-08-04
1.3K0
【转载】Pytorch tutorial 之Datar Loading and Processing (2)
上文介绍了数据读取、数据转换、批量处理等等。了解到在PyTorch中,数据加载主要有两种方式:
marsggbo
2019-03-03
1.4K0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档