前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >手撕深度学习算法(5):手撕LSTM第二课

手撕深度学习算法(5):手撕LSTM第二课

作者头像
GPUS Lady
发布2018-04-02 12:07:39
6640
发布2018-04-02 12:07:39
举报
文章被收录于专栏:GPUS开发者
说在前面

很抱歉今天才把手撕LSTM第二课公布出来。老师传来的视频录像文件太大,Lady我需要费好大劲上传到视频网站上去。

我们也问了老师:学习LSTM需要注意到什么?

老师如是说:

學習 LSTM 最需要注意的是資料連續性的問題。把資料序列化照著前因後果的連帶關係輸入,才能善用到 RNN (LSTM) 這種動態類神經網路 (Dynamic Neural Networks) 的時間序列分析 (Time Series Analysis)。 再來是對 LSTM 必須要認知到跟靜態類神經網路 (Static Neural Networks, e.g. CNN, MLP) 的特性不同,LSTM 雖然能描述離散空間的資料分佈型態,卻更注重資料的連續性。 例如,我們有 7 筆訓練範本 (Training Patterns) 要學習,這 7 筆分別是 Monday to Sunday 共 7 天的資料分佈,學習的是週一到週日的體重變化,此時,我們就能用這學習了一週體重變化的模型來預測下週一的體重變化程度。舉個例,週一吃了烤鴨,體重上升至 75 公斤,而後,週二因為變胖了,想減肥,吃的少,就體重就下降到了 65 公斤,再而後,週三又因為週二減重有成,又多吃了些,反而超前到了 80 公斤,這樣循環的日復一日,我們就能用這連續性的時間序列變化數據,來預測下一天的體重變化。(這裡的體重變化是以 Day 為時間單位) 另外,補充一下,靜態類神經網路 (Static Neural Network) 是在一堆已學習的範本裡,找出一個範本最符合目前這要預測的特徵範本,來當做答案。就容易遇到同樣的輸入特徵: e.g. Inputs = [1, 0, 2],但答案卻相異的衝突問題。 e.g. A Inputs = [1, 0, 2], Target = 1 B Inputs = [1, 0, 2], Target = 0 同一件事,不同答案,但在 SNN (Static Neural Networks) 裡卻會被視為同一件事 (只有一個靜態答案)。


手撕LSTM第二节课

视频内容

视频一刀未剪,大家也可以看到活动现场的交流情况。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-03-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GPUS开发者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档