前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【AI头条&优质资源】时间序列预测模型:使用深度神经网络RNN+Attention机制

【AI头条&优质资源】时间序列预测模型:使用深度神经网络RNN+Attention机制

作者头像
fishexpert
发布2018-11-21 15:40:37
1.9K0
发布2018-11-21 15:40:37
举报

『优秀论文精选』

  • 《Time Series Forecasting using RNNs: an Extended Attention Mechanism to Model Periods and Handle Missing Values》链接:https://arxiv.org/pdf/1703.10089.pdf 『AI头条』
  • 《Google开源机器翻译项目》链接:https://github.com/tensorflow/nmt
  • 《Imitation from Observation: Learning to Imitate Behaviors from Raw Video via Context Translation》(通过最新「模仿学习」技术为机器人「赋能」)Y Liu, A Gupta, P Abbeel, S Levine [UC Berkeley & OpenAI] (2017)链接:https://sites.google.com/site/imitationfromobservation/

『深度学习tips』

《如何看待Face++出品的小型化网络ShuffleNet?》

论文地址:https://arxiv.org/abs/1707.01083

  • From zhihu by Maxsky

放arxiv那天看了一下,整篇paper思路读下来还是非常清晰的,实验效果也很不错。

整体的网络结构设计延续了ResNe(X)t的设计思路,主要不同的地方在于

(1)把bottleneck中的1x1 conv也换成了group conv (因为实际1x1 conv也占据了很大一部分计算量),原本的3x3 group conv用最极端的depthwise conv代替。然后为了解决stacked group conv造成的上一层group conv中特定的一些feature只作用于下一层一部分group conv带来的weakens representation问题(这里我觉得可以理解成在stacked group conv里不同group的feature是没有被aggregate的),把上一层不同group conv得到的feature做了一个channel shuffle,来保证group feature在不同group之间的流动。

(2)downsample的block用3x3 stride2的avg pool代替了之前的1x1 stride2的conv,然后用concat代替sum,使得原本应该加倍的filter数保持不变。这应该算是两个减少计算量的技巧吧,可能对实际的效果不会有太大的影响。

其他的像depthwise conv后面没加ReLU什么的就不提了。

实验结果是优于mobilenet的,特别是在小模型上(40MFLOPS级别的arch2比mobilenet高了接近7个点),其他的ablation study还有detection的实验paper里都写的十分详细了。

实现上也比较方便,channel shuffle用现有的reshape, transpose做个组合就行了,流程应该是:

先把(b,g*n,h,w)reshape成(b,g,n,h,w),然后transpose为(b,n,g,h,w)之后再reshape成(b,n*g,h,w)

所以算法上复现起来应该也不是很难,比较难的是有一个高效的depthwise conv以及pointwise group conv的实现。

----------------------------------------

  • From zhihu by Haoqiang Fan

用过的都说好。

ShuffleNet 0.25x 的运算量是 13M

在224x224x3的图上,

算一下gradient强度需要0.6M

做一次3x3的高斯模糊需要0.9M

卷一个5x5的kernel需要3.8M

卷一个7x7的kernel需要7.4M

运行AlexNet第一层需要105.4M

跑一个1000分类的linear svm需要150M

而这个神奇的小网络不光输出了1000分类的label,还能产生 384通道的feature map

----------------------------------

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-07-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习与数据挖掘实战 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 『深度学习tips』
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档