腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
SparkR MLlib & spark.ml:最小二乘和广义线性模型优化
、
、
、
SparkR不能解释求解器规范"l-
bfgs
",这使我相信当我指定"auto"时,SparkR只是假定"normal“,然后使用LS法方程解析地估计模型系数。用随机梯度下降和L-
BFGS
拟合GLM在SparkR中是不可用的,还是我写错了下面的评估?m <- SparkR::glm(y ~ x1 + x2 + x3, data = df, solver = "l-
bfgs
") 在Spark中有很多关于使用迭代方法来拟合GLM的文档,例如LogisticRegressi
浏览 1
提问于2016-07-12
得票数 2
1
回答
在Scikit学习中,除了L-
BFGS
-B
算法
之外,还有其他的超参数优化
算法
吗?
、
、
、
、
+ WhiteKernel(noise_level=1), optimizer='fmin_l_
bfgs
_b', random_state=None) 在这里,我们看到L-
BFGS
-B
算法
已经被用来优化超参数.是否有任何替代
算法
(例如信任区域-反射
算法
),这个
算法
可以在学习?是否有这样的功能可用于其他方法,如信任区域反射
算法
和群智能(例如。萤火虫<e
浏览 0
提问于2018-05-08
得票数 1
回答已采纳
1
回答
自动“识别”(微积分)导数
、
、
使用"optim“库和"
BFGS
”优化
算法
,我感兴趣的是优化以下函数(也称为"Rosenbrock函数“):如果您定义了这个函数和函数的导数,那么使用"optim“库和
BFGS
算法
进行优化是非常简单的(注意:
BFGS
算法
需要了解函数的导数): x1 <- x[1] x2 <- x例如,在一个新的R会
浏览 8
提问于2022-01-17
得票数 1
2
回答
Apache Commons数学优化
、
、
、
有人使用过Apache Commmons数学优化包吗?更具体地说,内尔德-米德方法的实现?它的质量很好吗?
浏览 1
提问于2010-04-27
得票数 3
2
回答
在高级优化
算法
中会出现过度拟合吗?
、
、
、
、
我知道梯度下降在线性或logistic回归中会发生,但如果使用“共轭梯度”、"
BFGS
“和"L-
BFGS
”等高级优化
算法
,它会发生吗?
浏览 0
提问于2016-09-13
得票数 8
回答已采纳
1
回答
SciPy优化:牛顿-CG对
BFGS
与L
、
、
、
因为我有函数energy(xyz-position)和它的梯度,所以我决定使用西西手册中推荐的三种方法-- Newton-CG,
BFGS
,L-
BFGS
-B --并比较它们的性能。NN=9方法:
BFGS
警告:不一定由于精度损失而达到期望的错误。如果没有给出Hessian,则必须用该
算法
进行计算。在我们的情况下,只有梯度是明确的,这是在每一步的数值计算的
算法
。这一解释表明牛顿-CG方法与拟牛顿方法之间存在分歧.它不能解释的是
算法
无法找到真正的最小值,特别是
BFGS
和L之间
浏览 2
提问于2017-02-23
得票数 16
回答已采纳
1
回答
如何在GPU上运行枕的
BFGS
、
、
、
我想在GPU上运行
BFGS
优化
算法
的seems实现,而scipy似乎不支持GPU。initializations result = minimize(private_loss, x0, (x, y), method='
BFGS
', jac=private_gradient, options=opts,我知道
BFGS
有Tensorflow的可能性实现
浏览 8
提问于2022-02-13
得票数 1
回答已采纳
1
回答
R:执行梯度下降
、
、
我正在尝试学习更多关于优化
算法
的知识,作为一个学习练习--我想尝试一个用R编程语言使用(著名的)梯度下降
算法
优化一个数学函数。例如,我在(base) R中发现了"optim()“函数,它提供了许多常用的优化
算法
,如"
BFGS
”、“模拟退火”和“Nelder”。例如,下面我使用了"
BFGS
“
算法
的一个变体来优化Rastrign函数: optim(par = c(2,2),
浏览 5
提问于2022-01-19
得票数 0
回答已采纳
2
回答
正确使用scipy.optimize.fmin_
bfgs
、
、
、
我已经实现了一个版本,其中成本函数的最小化是通过梯度下降完成的,现在我想使用(scipy.optimize.fmin_
bfgs
).中的
BFGS
算法
。我试图找出参数Theta来最小化:我很难理解fmin_
bfgs
到底是如何工作的。据我所知,我必须传递一个要最小化的函数和一组Thetas的初始值。我所做的工作如下:myargs = (X, y) theta = scipy.optimize.fmin_
bfgs</em
浏览 14
提问于2012-04-21
得票数 11
回答已采纳
1
回答
与Python中R的nlminb最接近的函数是什么?
、
、
、
Python scipy.optimize.minimize函数支持以下方法: SLSQP
浏览 0
提问于2018-08-09
得票数 2
回答已采纳
1
回答
优化:获取函数以打印其迭代。
、
、
、
我想比较不同方法(
BFGS
和L-
BFGS
-B )的性能,为此,我希望该函数在优化时打印出它的值和误差范围。实际上,L-
BFGS
-B会自动这样做,它看起来如下所示:Tnint = total number of segments explored during Cauchy searches243
浏览 2
提问于2017-02-24
得票数 2
回答已采纳
1
回答
图书馆神经实验室培训新闻
、
、
、
我在使用蟒蛇和神经实验室方面很新,而且我对前馈神经网络的训练也有问题。我已经建立了如下的网络:net.init()我的目标输出是0到4之间的向量。Epoch: 1; Error: 55670.4462766;正如您所看到的,我将划时代
浏览 3
提问于2015-04-10
得票数 4
回答已采纳
1
回答
与R的nlminb最接近的Python的scypy解算器?
、
、
、
我知道Python在scipy.optimize.minimize中有以下求解器Powell
BFGS
L-
BFGS
-BCOBYLA SLSQP
浏览 1
提问于2018-08-17
得票数 1
回答已采纳
1
回答
我可以通过pyspark在Spark中使用L-
BFGS
优化器吗?
我想使用L-
BFGS
优化
算法
来拟合或任何其他可用的优化
算法
。如何通过pyspark访问这些优化
算法
?有没有一个例子来说明如何做到这一点?
浏览 16
提问于2019-04-09
得票数 1
1
回答
朱莉娅:最小化多参数函数(
BFGS
)
、
我正在使用
BFGS
算法
,尝试用Optim.jl库最小化一个带有多个参数的函数。rosenbrock(x) = (1.0 - x[1])^2 + 100.0 * (x[2] - x[1]^2)^2 result = optimize(rosenbrock, zeros(2),
BFGS
浏览 3
提问于2017-04-01
得票数 5
回答已采纳
1
回答
梯度下降的快速Python实现
、
、
我正在寻找快速Python推动梯度下降优化
算法
。我有一个凸问题,没有约束,所以现在我使用了在scikit-learn (最小化)中实现的
BFGS
算法
。 在多核系统上有什么更快/更可伸缩的吗?
浏览 0
提问于2019-08-14
得票数 3
1
回答
为什么会有这么大的差异?
、
我想知道,为什么fitdistr和手动optim之间有这么大的区别?data<-c(1:1000)if(par[2]>0 & par[3]>0) return(-sum(log(dt((data-par[1])/par[2],df=par[3])/par[2])))} fitdistr的输出: m s
浏览 2
提问于2013-03-27
得票数 0
2
回答
fmin_
bfgs
错误:被除以零遇到: rhok假定较大
、
、
在使用fmin_
bfgs
(在SciPy中)优化非正规化物流成本函数时,我得到了以下错误: C:\Python27\lib\site-packages\scipy\optimize当前函数值: 0.693147次迭代:1次函数评估: 27次 这里是数据集:
浏览 11
提问于2012-12-06
得票数 0
回答已采纳
2
回答
使用REL_REDUCTION_OF_F_优化最小化总是退出
、
我正在使用'L-
BFGS
-B'最小化一些日志可能性,我不希望
算法
在REL_REDUCTION_OF_F_ <= factr*epsmch时停止,所以我设置了ftol=0: method='L-
BFGS
-B', bounds=tuple(
浏览 4
提问于2017-08-10
得票数 1
2
回答
我应该使用哪种优化
算法
来优化多层感知器的权重?
、
、
实际上这是3个问题:1)只有错误函数的值?(黑盒)3)梯度和麻布?(二阶导数) 我听说CMA-ES对于1)和
BFGS
对于2)应该工作得很好,但我想知道是否有任何替代方案,我不知道3)采用哪种
算法
。
浏览 0
提问于2011-08-28
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习套路:线性回归
完结篇 I 机器学习与运筹优化(七)常见优化算法小结
机器学习数学补脑汁(七)-最优化方法
Logistic regression 的梯度下降解法-附python实现
深入机器学习系列3-逻辑回归
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券