首页
学习
活动
专区
工具
TVP
发布

jeremy的技术点滴

专栏作者
197
文章
455522
阅读量
58
订阅数
机器学习课程_笔记04
牛顿方法 首先假设存在一个函数 ,然后算法的目标是找到一个 ,使得 。 牛顿方法的一次迭代: 持续地迭代下去,就可以得到 。 同样的,假设现在存在一个函数 ,也就是对数似然率,目标是找到一个 ,使得 最大化。可以容易想到 的一阶导数 为0时, 即达到最大化了。 同样运用牛顿方法,其一次迭代: 事实证明牛顿方法是一个收敛速度非常快的算法,它的收敛速度用术语可以描述为二次收敛。如果不考虑常量因子,牛顿方法的每一次迭代都会使你正在逼近的解的有效数字的数目加倍。当实现牛顿方法时,对
jeremyxu
2018-05-11
9150
机器学习课程_笔记03
局部加权回归 线性回归算法里的成本函数: image.png 正规方程解出的参数解析表达式: image.png 由于使用了过小的特征集合使得模型过于简单,在这种情形下数据中的某些非常明显的模式没有被成功地拟合出来,我们将其称之为:欠拟合(underfitting)。 由于使用了过大的特征集合使得模型过于复杂,算法拟合出的结果仅仅反映了所给的特定数据的特质,我们可以称之为过拟合。 在特征选择中存在上述两类问题。 这里讲到一类非参数学习算法,可以缓解对于选取特征的需求,就是局部加权回归算法。 这个算法可以让我
jeremyxu
2018-05-11
7102
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档