前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络的参数和超参数

神经网络的参数和超参数

作者头像
Steve Wang
发布2019-05-26 15:05:47
1.7K0
发布2019-05-26 15:05:47
举报
文章被收录于专栏:从流域到海域从流域到海域

整理并翻译自吴恩达深度学习视频: https://mooc.study.163.com/learn/2001281002?tid=2001392029#/learn/content?type=detail&id=2001702026

神经网络的参数和超参数

参数(parameter)

W[1],b[1],W[2],b[2],W[3],b[3]...W^{[1]}, b^{[1]}, W^{[2]}, b^{[2]}, W^{[3]}, b^{[3]}...W[1],b[1],W[2],b[2],W[3],b[3]...

超参数 hyperparameter

中文

英文

学习速率

learning rate α\alphaα

迭代次数

#iterations

隐藏层层数

#hidden layers L

隐藏单元数

#hidden units n[1],n[2],...n^{[1]},n^{[2]},...n[1],n[2],...

激活函数的选择

choice of activation function

除此之外,还有mometum、minibatch size、various forms of regularization parameters。

#在学术上表示numbers of,即…的数量。

说明

超参数只是一种命名,之所以称之为超参数,是因为这些参数(hyperparameter)在某种程度上决定了最终得到的W和b参数(parameter)。超字并没有什么特别深刻的含义。

那么在训练网络时如何选择这些超参数呢 ?

你可能不得不尝试一系列可能适用于你的应用的超参数配置,不断尝试去取得最佳结果。

系统性的去尝试超参数的方法,稍后补充。

这是深度学习还需要进步的地方。

大家会开玩笑说什么佛系调参,差不多就是这个意思。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018年11月26日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 神经网络的参数和超参数
  • 参数(parameter)
  • 超参数 hyperparameter
  • 说明
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档