腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
目标
函数
已知
的
情况下
实现
梯度
下降
、
、
、
我有一个来自一篇论文
的
目标
函数
,我想用
梯度
下降
来最小化它。我还没有“从头开始”做这件事,我想要一些关于如何手动编码
的
建议。
目标
函数
是: T(L) = tr(X.T L^s X) - beta * ||L||。此外,L^s是矩阵指数,其中L^s =FΛ^s F.T,其中F是L
的
特征向量矩阵,Λ是L
的
特征值
的
对角矩阵。
目标
函数
的
导数是: dT
浏览 19
提问于2020-05-04
得票数 0
回答已采纳
1
回答
为什么用
梯度
下降
算法求解总是朝着正确
的
方向?
、
、
我有一个关于经典
梯度
下降
算法
的
问题。最近,我想
实现
一个
函数
拟合程序,只要给定观测数据以及
函数
的
参数。我使用
的
方法是
梯度
下降
算法,因为
函数
的
导数是可用
的
。假设给定了
函数
参数,我可以根据
函数
创建模拟数据:rng('default');low_value = 15; hig
浏览 2
提问于2013-03-09
得票数 1
回答已采纳
2
回答
神经网络优化数学直觉
、
、
当我查看下面的偏导数时,我认为它是任何优化算法
的
关键元素。如果我错了,请纠正我,但是这得到了损失
函数
的
斜率,所以我们可以与那个斜率相反,从而最小化损失。除了这个导数,还有其他
的
计算步骤可以说是优化神经网络
的
基础吗? 这个话题现在对我来说特别重要,因为我
在
考虑纹身这个派生词,作为一个很酷的人工智能纹身,我希望它是基本
的
,简单
的
。
浏览 0
提问于2019-05-10
得票数 2
回答已采纳
1
回答
确定
梯度
下降
的
起点
、
我刚刚了解到
梯度
下降
的
起点决定了终点。所以我想知道我们如何确定正确
的
起点来达到全局最小点,以便我们得到最小代价
函数
?
浏览 0
提问于2020-12-26
得票数 1
1
回答
保证矩阵求逆更安全
的
数值方法是什么?
、
、
我正在尝试开发一个结构方程模型
的
算法(
在
梯度
下降
的
框架下) problem.There是一个参数矩阵B(n*n),它
的
所有对角元素都固定为zero.And。
在
我
的
目标
function.There中,没有其他约束,比如B上
的
对称性。 我
的
问题是,我们如何确保(I-B)
在
迭代中不是奇异
的
?在这个问题中,由于
目标
函数
的</em
浏览 30
提问于2019-01-29
得票数 1
1
回答
结构几何优化
的
梯度
下降
法
、
、
我目前正在研究
的
一个问题需要我为一个结构优化一些尺寸参数,以防止
在
尚未被过度设计
的
情况下
发生屈曲。我已经能够用迭代(半蛮力)方法来解决这个问题,但是,我想知道是否有一种方法可以
实现
梯度
下降
法来优化参数。更多
的
背景情况如下: 假设我们试图优化三个长度/厚度参数,(t1,t2,t3)。在此基础上,
实现
了一种计算误差(R1,R2,R2 - ) (R1,R2,R3)ideal )
的
损失
函数
。我<e
浏览 3
提问于2021-11-06
得票数 1
回答已采纳
2
回答
机器学习:为什么线性回归成本
函数
先减后增?
、
、
我已经在这个.csv文件中提供
的
数据上训练了一个多元线性回归模型:我训练它(
梯度
下降
)如下:rd: int = 0 rd =te += 1损失/成本
函数
(均方误差)如预期
的
那样保持
下降
,直到7
浏览 0
提问于2019-10-19
得票数 0
1
回答
logistic回归中
的
梯度
下降
、
、
、
Logistic和线性回归具有不同
的
成本
函数
。但我不明白logistic回归中
的
梯度
下降
与线性回归是如何一致
的
。 通过推导平方误差代价
函数
,得到了
梯度
下降
公式。然而,
在
Logistic回归中,我们使用了一个对数成本
函数
。我想我在这里迷路了。
浏览 0
提问于2018-01-22
得票数 1
回答已采纳
2
回答
牛顿
的
方法会被归类为
梯度
下降
法吗?
、
可能是一个很小
的
问题,但我只想更清楚。根据现有的文献和中
的
讨论,这两种方法都涉及到计算一个导数,然后向最小方向移动。
在
简单
梯度
下降
法
的
情况下
,我们只计算一阶导数;
在
牛顿法中,我们计算二阶导数和恒心导数,并应用于向量。此外,牛顿/s方法中向量
的
更新可能并不总是沿(-ive)
梯度
方向进行。此外,对于给定
的
函数
f(x),这两种方法都试图寻找满足f'(x) = 0<em
浏览 7
提问于2020-01-18
得票数 0
回答已采纳
2
回答
Python中
的
(随机)
梯度
下降
实现
、
、
、
、
我正在尝试做(最好是随机
的
)
梯度
下降
,以最小化自定义损失
函数
。我试过使用scikit学习SGDRegressor课程。但是,SGDRegressor似乎不允许我
在
没有数据
的
情况下
最小化自定义损失
函数
,如果我可以使用自定义丢失
函数
,我只能将它作为回归来使用fit()方法来拟合数据。是否有一种方法可以使用scikit
实现
或任意其他Python
实现
的
随机
梯度
下降
浏览 12
提问于2022-11-30
得票数 1
1
回答
为什么我自己动手
的
拉索给出不同
的
解决途径,从科学工具包-学习
的
lasso_path?
、
、
self.B * self.alpha self.B -= self.eta * dB考虑到我
的
目标
是最小化问题:,如果我尝试将解决方案路径与进行比较,我发现得到
的
系数是完全不同
的
。例如,如果我设置n= 100,p=5和alpha = 1,那么lasso_path给出了b_2 =0,但是我想出
的
粗糙套索给出了b_2 = 0.5962:为什么会有不同呢?还有我应该包括
的
密
浏览 5
提问于2021-11-18
得票数 0
4
回答
梯度
上升收敛
、
、
、
我正在尝试通过
梯度
上升过程最大化
目标
函数
的
对数。我观察到了一个客观
的
值序列,在这个序列中,值先是增加,然后又开始减少。我想知道这是不是有可能?我
的
意思是,是否存在这样
的
函数
,其上升过程通过极大值,然后产生递减值路径。以下是
目标
值序列
的
链接。
浏览 1
提问于2013-09-28
得票数 0
1
回答
SGD分类器和Logisitc回归有什么区别?
、
、
、
损失=对数
的
SGD分类器
实现
Logistic回归,损失=铰链
实现
线性支持向量机。我还了解到logistic回归采用
梯度
下降
作为优化
函数
,SGD采用随机
梯度
下降
,收敛速度要快得多。但这两种算法中哪一种会在哪种
情况下
使用?另外,SGD和Logistic回归有什么相似之处,它们又有何不同?
浏览 0
提问于2018-09-07
得票数 10
1
回答
如何在Java中创建在QNMinimizer中使用
的
diffFunction?
、
、
、
我正在尝试使用斯坦福NLP库中
的
QNMinimizer,但在使qn.minimize正常运行所需
的
参数方面遇到了问题。= new QNMinimizer(10, true)我需要将一个diffFunction类型
的
对象放在"null“所在
的
位置,但不确定如何创建/
实现
一个。我有一个使用
梯度
下降
的
方法,并希望将其合并到diffFun
浏览 3
提问于2017-04-07
得票数 0
0
回答
在
Python中求未知
函数
在给定点
的
梯度
、
、
、
我被要求用Python语言写一个
梯度
下降
的
实现
,签名为gradient(f, P0, gamma, epsilon),其中f是未知
的
并且可能是多元
函数
,P0是
梯度
下降
的
起点,gamma是常数步长,ε是停止标准我发现棘手
的
是如何在P0点上计算f
的
梯度
,而对f一无所知。我知道有numpy.gradient,但我不知道如何在我不知道f
的
尺寸
的
情
浏览 9
提问于2017-12-05
得票数 0
2
回答
GD、批GD、SGD和小型批处理SGD有什么不同?
、
、
这四种
梯度
下降
函数
之间有何不同?批GD小批量SGD
浏览 0
提问于2019-06-15
得票数 3
回答已采纳
1
回答
增量规则还是
梯度
下降
?
梯度
下降
和增量规则有什么不同?
浏览 1
提问于2011-02-04
得票数 5
3
回答
随机
梯度
下降
增加成本
函数
、
、
在
神经网络中,
梯度
下降
会查看整个训练集以计算
梯度
。成本
函数
随着迭代
的
进行而减小。如果代价
函数
增加,通常是因为错误或不适当
的
学习率。 相反,随机
梯度
下降
计算每个单个训练示例
的
梯度
。我想知道成本
函数
是否有可能从一个样本增加到另一个样本,即使
实现
是正确
的
并且参数调整得很好。我有一种感觉,代价
函数
的
异
浏览 2
提问于2018-05-16
得票数 0
1
回答
如果我不为tensorflow中
的
op提供
梯度
,
梯度
下降
是如何工作
的
?
、
、
在
添加新op时,文档()说:既然这是可选
的
,如果我不写,
梯度
下降
是如何计算
梯度
的
?它用数值方法吗?如果是,什么?这会慢点吗?
浏览 0
提问于2016-08-30
得票数 0
回答已采纳
4
回答
什么数值优化器可以只
在
梯度
,而没有明确
的
目标
值操作?
、
、
、
、
我有一个优化问题,它涉及最小化一个
函数
的
梯度
,但是
目标
函数
在任何一点上
的
实际值都是未知
的
。显然,我可以使用
梯度
下降
,但我不想在这里重新发明轮子。更多
浏览 3
提问于2013-02-01
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Python实现梯度下降优化算法
DL笔记:用 Python 实现梯度下降的算法
Logistic regression 的梯度下降解法-附python实现
随机梯度下降法和牛顿法的理论以及Python实现
看我用梯度下降优化方法在Python中实现单边量线性回归!纯干
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券