腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
枕:
收敛
度量
、
、
我正在使用来优化多元
成本
函数
。温度是影响跳频算法
收敛
时间的重要参数之一。我希望能够通过将
成本
函数
值曲线拟合到当前的迭代,并确定它是否比以前的温度设置更快的
收敛
速度来确定basinhopping()的
收敛
速度。:有什么方法可以“实时”更新
成本
<e
浏览 8
提问于2015-12-03
得票数 2
回答已采纳
4
回答
成本
函数
在神经网络中
收敛
时权值不
收敛
、
、
、
我的
成本
/损失
函数
急剧下降,接近0,这似乎是一个
收敛
的迹象。但权重仍在以可见的方式变化,比
成本
函数
快得多。我应该确保重量也
收敛
吗? 一些细节:我只是计算了一个时代。我的损失
函数
是均方差。我尝试了几个实验和不同的初始权重,但都得到了不断变化的权值的
收敛
损失
函数
。
浏览 0
提问于2019-02-18
得票数 3
2
回答
梯度下降
收敛
性如何判定
收敛
性?
、
然而,提供的信息只说重复梯度下降,直到它
收敛
。if (change_in_costfunction > precisionvalue) {} repeat gradient_de
浏览 10
提问于2013-06-25
得票数 10
回答已采纳
1
回答
成本
函数
不
收敛
、
、
我试图在只包含两个类('sentosa‘和'versicolor')的标准虹膜数据集上实现单感知器算法,但错误
函数
不
收敛
.Here是我的代码:from sklearn
浏览 20
提问于2017-12-23
得票数 2
2
回答
如何使用partial_fit在Scikit SGDClassifier上增加迭代次数,以在每一步优化我的
成本
函数
?
、
、
在Scikit SGDClassifier使用SGDClassifier时,
成本
函数
收敛
的迭代次数等于1,如描述中所述: 如何增加max_iter,使我的
成本
函数
得到适当的优化,而不仅仅是一次迭代?或者与scikit相关的描述,我如何使用partial_fit处理我的分类器的“客观
收敛
”和“早期停止”?
浏览 18
提问于2020-09-03
得票数 0
1
回答
对于梯度下降,
成本
函数
曲线实际上是如何计算的:即模型随机选择权重的次数?
、
、
据我所知,为了计算简单线性回归的权重和偏差,它遵循梯度下降算法,该算法致力于寻找
成本
函数
(曲线)的全局最小值。该
成本
函数
是通过随机选择一组权重,然后计算所有记录的平均误差来计算的。这样我们就得到了
成本
曲线上的一个点。再次选择另一组权重,并计算平均误差。所有这些点构成了
成本
曲线。我的疑问是,在计算(找到
成本
函数
)
成本
曲线之前,有多少次随机选择权重来获得点数。提前谢谢。
浏览 5
提问于2021-07-18
得票数 0
2
回答
神经网络:为什么我们需要一个激活
函数
?
、
、
我试着在没有任何激活
函数
的情况下运行一个简单的神经网络,网络不
收敛
。我正在使用MSE
成本
函数
进行MNIST分类。但是,如果我对隐藏层应用校正的线性激活
函数
(output = max(0,x),其中x是加权和),那么它会很好地
收敛
。 为什么消除前一层的负输出有助于学习?
浏览 1
提问于2016-04-01
得票数 1
1
回答
设置scipy.optimize.fmin (及其他)的
收敛
准则
、
、
、
我正在进行一项优化任务,其中的
成本
函数
评估非常昂贵,并且可以容忍一些错误。我正在使用来自scipy.optimize的一些预先打包的pre方法来开始。我使用的第一个方法是,它实现了nelder算法。该
函数
有两个与
收敛
相关的参数xtol和ftol,其中()指定了一个
收敛
准则,其中如果x或f(参数集和代价)在迭代时变化小于xtol或ftol,则
函数
返回。但是,由于
成本
函数
对我来说非常昂贵,所以我也希望能够指定一个
成本
阈值,如果它找到一个<
浏览 6
提问于2015-05-21
得票数 3
回答已采纳
3
回答
负重训练速度太慢
、
、
虽然我得到了快速、
收敛
和令人满意的结果,但训练后的权重值变化很小(而
成本
/损失
函数
却以一种看似
收敛
的方式迅速下降)。初始权值:卷积核为非零单元矩阵,完全连通层权为0's,激活
函数
为乙状结肠。
浏览 0
提问于2019-02-18
得票数 2
1
回答
神经网络脚本在优化后神秘地无法工作
、
在实现所有的导数后,输出的
成本
收敛
到一个看似任意的值。我做了一些测试,看看我的数学是否不正确,但一切似乎都是正确的。
成本
的
收敛
值似乎是基于最小/最大值。我分配给神经网络的唯一任务是求解一个异或门,并确定一个二进制数是偶数还是奇数。我想知道到底是什么导致了这种任意
收敛
的<
浏览 4
提问于2022-10-14
得票数 -1
1
回答
二元分类
成本
函数
,神经网络
、
、
我一直在调整深度学习,以训练一个二元分类问题的Logistic回归模型的权重,本教程使用了下面的负对数似然
成本
函数
。negative_log_likelihood(self, y): 然而,我的权重似乎没有正确地
收敛
我在想,我是否在使用适当的
成本
函数
来
收敛
到适当的权重。值得注意的是,我的两个类非常不平衡,我的预测器已经规范化了。
浏览 1
提问于2015-05-22
得票数 1
1
回答
成本
(损失)
函数
的最小值是否等于零?
、
、
、
、
我们知道优化技术,在所有可能的参数空间中搜索一个参数集,使模型的
成本
函数
最小化。在理想情况下,最著名的损失
函数
,如MSE或范畴交叉熵,其全局最小值等于零。例如,梯度下降( \theta_j \leftarrow \theta_j - \alpha \frac{\partial}{\partial \theta_j}J(\theta) )基于计算
成本
函数
值我在想,如果我们设计一个在理想情况下具有非零全局最小值的
成本
函数
,会发生什么。它对
收敛
速度或优化过程
浏览 0
提问于2018-11-06
得票数 0
回答已采纳
3
回答
随机梯度下降增加
成本
函数
、
、
成本
函数
随着迭代的进行而减小。如果代价
函数
增加,通常是因为错误或不适当的学习率。在随机梯度下降中期望
成本
函数
的增量吗?
浏览 2
提问于2018-05-16
得票数 0
1
回答
我应该考虑所有基于梯度下降的算法的特征缩放吗?
在多元线性回归一节的课程机器学习中,Andrew提供了以下关于梯度下降的提示:将特性转换为大约-1 绘图
成本
与迭代若要确定
收敛
速度是否太慢(请尝试更大的alpha) 以确定要
收敛
的迭代次数。
浏览 0
提问于2018-02-27
得票数 2
回答已采纳
1
回答
C++:NLopt COBYLA与Matlab的比较
、
、
、
我正在使用NLopt library,COBYLA algorithm,在C++中最小化基于日志的
成本
函数
。我已经在Matlab中使用fmincom实现了同样的功能。Matlab
函数
的性能明显优于NLopt
函数
。它需要比NLopt少得多的优化,并且
收敛
到一个比NLopt好得多的最小值。 我相信这些算法所采用的补充方案是不同的。如果可能的话,我需要知道如何在NLopt中使用COBYLA,以类似于Matlab的方式进行
收敛
。提前感谢
浏览 1
提问于2014-04-16
得票数 0
1
回答
迭代次数(梯度下降)
、
、
、
我还实现了一个
成本
函数
,它接收所有的系数、截距和训练数据,并返回这些系数和拦截的
成本
。我在1500迭代和learning_rate = 0.000003202的波士顿数据集上运行了该算法,并成功地进行了
收敛
,使最小
成本
为61.840725406571245,但是当我对相同的训练数据训练sklearn的LinearRegression()算法时,使用.coef_和.intercept_发现了
成本
。的
成本
最低为19.958219814238042。所以我的问题是,怎么才能说
浏览 4
提问于2020-06-27
得票数 0
1
回答
如何确定随机梯度下降的
收敛
性?
在对批处理梯度下降进行编码时,很容易将
收敛
性编码为每一次迭代后的代价向最小方向移动,当
成本
的变化趋向于接近预定数时,我们停止迭代,并得出梯度下降已经
收敛
的结论。但在随机GD中,
成本
往往会在某一时刻偏离当地的最低水平。在这里,决定一个变化的阈值是行不通的,因为SGD并不总是在趋同,而是波动很大。在python中进行编码时,当
成本
趋于最小时,我如何知道迭代的次数?
浏览 0
提问于2019-11-27
得票数 2
3
回答
我的随机梯度下降的实现正确吗?
、
、
、
当我设置学习速率α为0.2时,批梯度下降
成本
会
收敛
,但为了不发散,我不得不为随机实现设置一个学习速率α为0.0001。这是正常的吗?\r\n',iter, J); 作为参考,这里是在我的例子中使用的逻辑回归
成本
函数
。
浏览 1
提问于2014-01-25
得票数 9
回答已采纳
1
回答
蒙特卡罗树搜索实现
、
、
、
、
为了使搜索
收敛
到Minimax (实际的理想移动序列),可能需要模拟成千上万的游戏。我现在做这件事的方法是使用相同的移动生成
函数
,我将使用相同的移动生成
函数
来进行正常的极小极大搜索,以及使用相同的启动
函数
,并在每次移动后检查是否获胜。我的问题是:是否有更好的方法来实现游戏模拟,以降低
成本
?我可以
不
执行完整的移动生成,而不是检查每一次获胜?是否有其他改善模拟时间的方法?
浏览 0
提问于2018-01-18
得票数 2
回答已采纳
1
回答
线性回归和梯度下降问题
、
📷📷import matplotlib.pyplot as pltimport numpy as np points = np.genfromtxt("Dokumente/Salary.csv", delimiter=",") def gradient_descent(current_b, current_m, learning_rate, points)
浏览 0
提问于2019-02-01
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
低成本做优化谁人不心动?
我是变量,不,Python说你是函数
怎么管理成本上升的风险?企业不控制成本会有什么后果?
初学python,调用固定参,不固定参函数遇到的问题!
特斯拉陶琳:快速回款不抬价,成本控制有妙招
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券