首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

干货 | 一文详解神经网络结构搜索(NAS)

AI 科技评论按:近年来,深度学习的繁荣,尤其是神经网络的发展,颠覆了传统机器学习特征工程的时代,将人工智能的浪潮推到了历史最高点。然而,尽管各种神经网络模型层出不穷,但往往模型性能越高,对超参数的要求也越来越严格,稍有不同就无法复现论文的结果。而网络结构作为一种特殊的超参数,在深度学习整个环节中扮演着举足轻重的角色。在图像分类任务上大放异彩的ResNet、在机器翻译任务上称霸的Transformer等网络结构无一不来自专家的精心设计。这些精细的网络结构的背后是深刻的理论研究和大量广泛的实验,这无疑给人们带来了新的挑战。

03
您找到你想要的搜索结果了吗?
是的
没有找到

一阶优化算法启发,北大林宙辰团队提出具有万有逼近性质的神经网络架构的设计方法

以神经网络为基础的深度学习技术已经在诸多应用领域取得了有效成果。在实践中,网络架构可以显著影响学习效率,一个好的神经网络架构能够融入问题的先验知识,稳定网络训练,提高计算效率。目前,经典的网络架构设计方法包括人工设计、神经网络架构搜索(NAS)[1]、以及基于优化的网络设计方法 [2]。人工设计的网络架构如 ResNet 等;神经网络架构搜索则通过搜索或强化学习的方式在搜索空间中寻找最佳网络结构;基于优化的设计方法中的一种主流范式是算法展开(algorithm unrolling),该方法通常在有显式目标函数的情况下,从优化算法的角度设计网络结构。

01

学界 | 伯克利 AI 实验室博客发布首篇文章:让神经网络自行选择模块,实现动态推理

深度神经网络虽然在图像,语音,机器人等方面取得了巨大的成功,但是这些成功通常局限在识别任务或者生成任务中,对于推理任务,常规的神经网络通常是无能为力的。伯克利AI实验室近期开通了博客,该博客的第一篇文章针对推理任务,提出了神经模块网络,通过训练多个神经网络模块完成推理任务,每个神经网络模块负责一个推理步骤,对于不同的推理任务,动态的组合这些模块,以生成针对不同问题的新网络结构。 该文章的作者为 Jacob Andreas , AI 科技评论了解到,他是伯克利 NLP 四年级博士生,也是 BAIR 实验室成员

09

万字解读商汤科技ICLR2019论文:随机神经网络结构搜索

本文作者对NAS任务中强化学习的效率进行了深入思考,从理论上给出了NAS中强化学习收敛慢的原因。该论文提出了一种全新的经济、高效且自动化程度高的神经网络结构搜索(NAS)方法。他们通过深入分析NAS任务的MDP,提出了一个更高效的方法——随机神经网络结构搜索,重新建模了NAS问题。与基于强化学习的方法(ENAS)相比,SNAS的搜索优化可微分,搜索效率更高。与其他可微分的方法(DARTS)相比,SNAS直接优化NAS任务的目标函数,搜索结果偏差更小。此外,基于SNAS保持了随机性(stochasticity)的优势,该论文进一步提出同时优化网络损失函数的期望和网络正向时延的期望,自动生成硬件友好的稀疏网络。

05

PNAS: 默认模式网络与语言以及控制系统的耦合信息流

导读 人脑在静息状态下,可以利用功能连接将其划分为一些经典大尺度功能网络。这些网络分管不同的认知功能,例如,一个极为重要的网络——默认网络(DMN)主要参与人的内在导向认知活动,像是记忆、社交思维以及奖赏机制。在之前基于平均后的群组水平数据的研究中,尽管参与了多重认知活动,默认网络仍被划分为一个网络整体。这令人不禁遐想,默认网络是否存在稳定的负责不同单一认知功能的子网络呢?这篇于近期发表在《PNAS》的文章 ”Default-mode network streams for coupling to language and control systems” 不同之前研究的方法,其利用多次重复采集的个体水平静息态数据,来探究这一问题。本文即对该研究进行解读。

00
领券