前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >非凸优化与梯度下降

非凸优化与梯度下降

作者头像
gojam
修改2019-05-14 13:34:33
1.7K0
修改2019-05-14 13:34:33
举报
文章被收录于专栏:gojam技术备忘录gojam技术备忘录

首先抛一个知乎的回答:在数学中一个非凸的最优化问题是什么意思?

作者:王业磊 链接:https://www.zhihu.com/question/20343349/answer/17347657

在深度学习中,我们需要学习一些参数,使我们的模型更加准确。但这些参数一开始是0或随机的,深度学习的过程是将这些参数一次次迭代,从而找到最优解。

w,b:参数 J(w,b):代价函数

从上图可以看到,求导的结果为负的时候,w和b的值会增加,反之亦然,这使得w和b逐渐接近最优解(极值)。这里可能出现的问题是,α的取值要合适,暂时不做探讨;并且不能出现多个局部最优解(多个极值),这就是要求J为凸函数的原因了。

有一点需要指出:偏微分使用符号∂而不是d,但这种使用形式并没有太多的道理,无须在意。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019年1月25日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档