首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

学界 | 普适注意力:用于机器翻译的2D卷积神经网络,显著优于编码器-解码器架构

深度神经网络对自然语言处理技术造成了深远的影响,尤其是机器翻译(Blunsom, 2013; Sutskever et al., 2014; Cho et al., 2014; Jean et al., 2015; LeCun et al., 2015)。可以将机器翻译视为序列到序列的预测问题,在这类问题中,源序列和目标序列的长度不同且可变。目前的最佳方法基于编码器-解码器架构(Blunsom, 2013; Sutskever et al., 2014; Cho et al., 2014; Bahdanau et al., 2015)。编码器「读取」长度可变的源序列,并将其映射到向量表征中去。解码器以该向量为输入,将其「写入」目标序列,并在每一步用生成的最新的单词更新其状态。基本的编码器-解码器模型一般都配有注意力模型(Bahdanau et al., 2015),这样就可以在解码过程中重复访问源序列。在给定解码器当前状态的情况下,可以计算出源序列中的元素的概率分布,然后使用计算得到的概率分布将这些元素的特征选择或聚合在解码器使用的单个「上下文」向量中。与依赖源序列的全局表征不同,注意力机制(attention mechanism)允许解码器「回顾」源序列,并专注于突出位置。除了归纳偏置外,注意力机制还绕过了现在大部分架构都有的梯度消失问题。

02

静息态下大脑的动态模块化指纹

摘要:人脑是一个动态的模块化网络,可以分解为一系列模块,其活动随时间不断变化。静息状态下,在亚秒级的时间尺度上会出现几个脑网络,即静息态网络(RSNs),并进行交互通信。本文尝试探究自发脑模块化的快速重塑及其与RSNs的关系。三个独立的健康受试者静息态数据集(N=568),对其使用脑电/脑磁图(EEG/MEG)来探究模块化脑网络的动态活动。本文证实了RSNs的存在,且其中一些网络存在分裂现象,尤其是默认模式网络、视觉、颞区和背侧注意力网络。本文也证明了心理意象中的个体间差异与特定模块的时间特征有关,尤其是视觉网络。综上所述,本文的研究结果表明大规模电生理网络在静息态时具有依赖模块化的动态指纹。

03
领券