论文地址:http://arxiv.org/pdf/2001.02525v2.pdf 代码:https://github.com/jaminfong/fna. 来源:华中科技大学教育学院 论文名称:FAST NEURAL NETWORK ADAPTATION VIA PARAMETER REMAPPING ANDARCHITECTURE SEARCH 原文作者:Jiemin Fang
深度神经网络在许多计算机视觉任务中取得了显著的性能。目前性能表现SOTA的语义分割和目标检测方法都重复使用了用于图像分类的神经网络结构作为主干,一般在ImageNet上进行预先训练。由最近用于检测和分割的神经架构搜索(NAS)的研究表明,性能收益提升通过设计专门用于检测和分割的网络架构来实现。不过,其中的难点是通过ImageNet对搜索空间表示(又称超级网络)或搜索网络的预训练会带来巨大的计算成本。在本文中,我们提出一个快速神经网络的适应(FNA)方法,能适应种子网络的体系结构和参数成为一个具有不同深度、宽度的网络,或者内核程序通过参数重映射技术实现,这使得人们可以利用NAS进行检测/分割任务效率更高。我们在MobileNetV2上进行FNA实验,从而获得新的网络来进行分割和检测,该网络的性能明显优于手工和NAS设计的现有网络。FNA的总计算成本明显低于现有用于分割/检测的表现SOTA的NAS方法:1737×less than DPC, 6.8× less than Auto-DeepLab 和 7.4× lessthan DetNAS。
下面是论文具体框架结构以及实验结果:
人工智能,每日面试题:
在一个n维的空间中,最好的检测outlier(离群点)的方法是:
A.作正态分布概率图
B.作盒形图
C.马氏距离
D. 作散点图
每日面试题,答案:
号主答案:C
点击右下角“在看”给出你的答案:
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。