首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

教你用牛顿法寻找最优点

1

前言

在最速梯度下降法中,可以知道迭代点的更新为:x^(k+1)=x^(k)+tkdf(x^(k)) ,可以看到只用到了目标函数的一阶导数信息(迭代方向df(x^(k))),而牛顿法则用到了二阶导数信息,下面讲解如何用到了二阶导数信息。

2

牛顿法思想

用目标函数的二阶泰勒展开近似该目标函数,通过求解这个二次函数的极小值来求解凸优化的搜索方向。

3

牛顿法推导

以上推导来自于:凸优化(七)——牛顿法

转自:机器学习算法与自然语言处理

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180210B1190U00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券