前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[CVPR2021] AttentiveNAS: Improving Neural Architecture Search via Attentive Sampling

[CVPR2021] AttentiveNAS: Improving Neural Architecture Search via Attentive Sampling

作者头像
marsggbo
发布2022-05-11 16:59:26
6910
发布2022-05-11 16:59:26
举报

1. 背景(Two-stage NAS)

该篇论文(AttentiveNAS)聚焦的是Two-stage NAS,比较出名的算法有 BigNAS,Once-for-all NAS (OFA), SPOS等等,不过他们都采用的uniform的采样去训练Supernet,即把所有的子网一视同仁,尽可能分配相等的采样机会。Two-stage NAS算法通常包含如下两个步骤:

1.1 Constraint-free pre-training

第一步是训练Supernet,数学化公式如下:

\min _{W} \mathbb{E}_{\alpha \in \mathcal{A}}\left[\mathcal{L}\left(W_{\alpha} ; \mathcal{D}^{t r n}\right)\right]+\gamma \mathcal{R}(W)
  • 第一项是所有子网loss的期望,这些子网共享权重
  • 第二项是对共享权重的约束

1.2 Resource-constrained searching

第二步是基于训练好的Supernet去评估子网络,然后选出Pareto-front模型。数学公式可表示成如下形式:

\begin{aligned} &\left\{\alpha_{i}^{*}\right\}=\underset{\alpha_{i} \in \mathcal{A}}{\arg \min } \mathcal{L}\left(W_{\alpha_{i}}^{*} ; \mathcal{D}^{v a l}\right), \\ &\text { s.t. } \operatorname{FLOPS}\left(\alpha_{i}\right)<\tau_{i}, \quad \forall i \end{aligned}

一般常用的搜索算法是进化算法或者Monte Carlo tree search算法。

2. AttentiveNAS

2.1 Mathematics

AttentiveNAS想做的是把两个步骤融合成一步,可表示成如下数学公式:

\begin{align} &\min _{W} \mathbb{E}_{\pi(\tau)} \mathbb{E}_{\pi(\alpha \mid \tau)}\left[\mathcal{L}\left(W_{\alpha} ; \mathcal{D}^{t r n}\right)\right], \\ =&\min _{W} \mathbb{E}_{\pi(\tau)} \sum_{\pi(\alpha \mid \tau)}\left[\gamma(\alpha) \mathcal{L}\left(W_{\alpha} ; \mathcal{D}^{t r n}\right)\right], \\ =&\min _{W} \frac{1}{n} \sum_{\tau_{o} \sim \pi(\tau)}^{n}\left[\sum_{\alpha_{i} \sim \pi\left(\alpha \mid \tau_{o}\right)}^{k} \gamma\left(\alpha_{i}\right) \mathcal{L}\left(W_{\alpha_{i}} ; \mathcal{D}^{t r n}\right)\right] \end{align}
  • 公式(1)中的\tau 表示候选网络的FLOPs,最优的W^* 简单理解就是 使得 不同FLOPs下(\mathbb{E}_{\pi(\tau)} ) 所有子模型的loss期望 (\mathbb{E}_{\pi(\alpha \mid \tau)} ) 最小的解。
  • 公式(2)和(3)都是分别使用Monte Carlo采样做近似计算。比如 n 表示将整个搜索空间划分成n 个FLOPs区间,k 表示每个FLOPs区间内每次采样更新的模型数量,\gamma(\alpha) 是indicator函数,即如果模型结构\alpha 满足指定条件,则\gamma(\alpha) 等于1,反之为0。

2.2 Pseudo Algorithm

AttentiveNAS Algorithm
AttentiveNAS Algorithm

上面数学公式中提到的\gamma(\alpha) 是一个指示函数,其条件是\alpha 是否属于 best或worst Pareto-front,分别记为BestUp-k和WorstUp-k

Pareto-front set
Pareto-front set

它的这种优化策略类似于BigNAS里的Sandwich策略,即把最好的和最差的都优化好了,那么就认为中间的也一定程度上被优化好了。

3. Experimental Results

训练好了Supernet,接下来就是去做实验验证这种训练方式的稳定性和有效性。

3.1 Prediction

对于任意一个子模型,我们可以得到它的评估性能(直接从Supernet中继承对应模块的权重)和真实性能(test acc),一般来说如果足够数量模型的评估性能和预测性能之间存在强相关性,则说明训练好的Supernet能够有效地知道后面对模型的搜索。

评估性能有两种策略可以获取:

    1. 基于训练好的Supernet去初始化自网络,然后在验证集上去评估模型性能;
    1. 上面的方法耗时比较长,所以另一种策略是训练一个预测器来预测每个模型的性能。本文的做法是先跑1024个子模型得到他们的真实性能,然后基于这1024个模型组成的数据对(模型结构编码,test acc)训练得到一个随机森林回归树。

下图是AttentiveNAS基于第二种策略得到的实验结果, 其中s0,s1 分别表示在两个不同种子下跑的实验结果,ep30/ep360表示在训练30个epoch和360个epoch下的结果。可以看到预测的ACC和真实的ACC之间的相关系数Kendall tau(其范围是-1~1)还是比较大的。这表明预测器还是能有效预测出模型的ACC的。

Rank Correlation
Rank Correlation

3.2 Sampling Results

WorstUp vs. BestUp vs. Uniform
WorstUp vs. BestUp vs. Uniform

不同采样训练的结果如上图所示,BestUp-50表示从best Pareto front set中每个sampling step采样50个模型做评估。根据上面的结果可以观察到训练WorstUp要比BestUp效果更好,这个常规的想法不太一致。

最终在ImageNet上的结果如下表所示

Results on ImageNet
Results on ImageNet

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022-04-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 背景(Two-stage NAS)
    • 1.1 Constraint-free pre-training
      • 1.2 Resource-constrained searching
      • 2. AttentiveNAS
        • 2.1 Mathematics
          • 2.2 Pseudo Algorithm
          • 3. Experimental Results
            • 3.1 Prediction
              • 3.2 Sampling Results
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档