首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

数值优化(7)——限制空间的优化算法:LBFGS,LSR1

如果变成了限制空间的情况,这个方法就会变成LBFGS。 在上一节我们提过一般情况下的BFGS方法,它利用的是线搜索方法的框架。...那么LBFGS更新会使得 收敛到 的极小值点 。 我们证明一下这个结论。事实上,主要的证明过程都和上一节证明BFGS的过程相似。...到此,我们就介绍好了LBFGS的全部内容。 限制空间的SR1方法 我们在上一节有提到过SR1方法,事实上限制空间的SR1方法(也即LSR1方法)也在近期被提出,但是远不如LBFGS历史悠久了。...有了LBFGS的经验,我们的修改方法也应运而出,考虑BB步长。...因为限制空间的特性,我们得以在大规模机器学习中看到这些方法(比方说深度学习中的优化算法,就有一个是LBFGS)。

84220
您找到你想要的搜索结果了吗?
是的
没有找到

LogisticRegression实验

lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。 newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数。...L2 lbfgs/newton-cg/sag 较大数据集,支持one-vs-rest(OvR)和many-vs-many(MvM)两种多元逻辑回归。...如果选择了ovr,则4种损失函数的优化方法liblinear,newton-cg,lbfgs和sag都可以选择。...但是如果选择了multinomial,则只能选择newton-cg, lbfgs和sag了 实验过程 数据分析 该数据集共包括 150 行,每行为 1 个样本。...y_pred) accuracy_score 结果分析 针对不同的分类方式选择参数与优化算法参数可以得到不同的结果,有的结果甚至相差很多 分类方式选择参数 优化算法参数 准确率 multinomial lbfgs

76840

机器学习笔记之sklearn的逻辑回归Logistics Regression实战

仅当"solvers"参数设置为"liblinear"和"lbfgs"时有效。 - warm_start:设置热启动,布尔类型,默认为False。...即参数solver的选择,如果是L2正则化,那么4种可选的算法{‘newton-cg’,‘lbfgs’,‘liblinear’,‘sag’}都可以选择。...sklearn逻辑回归参数 --solver 优化算法参数,字符串类型,一个有五种可选,分别是"newton-cg","lbfgs","liblinear","sag","saga。...对于多分类问题,只有newton-cg,sag,saga和lbfgs能够处理多项损失(也就是MvM的情况,还记得上面说到的多分类嘛?),而liblinear仅处理(OvR)的情况。...多分类的情况下,在数据量小的情况下,追求高精度,可以用'newton-cg'或'lbfgs'以'MvM'的方式求解。数据量一大还是使用'sag'。

1.2K20
领券