腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(2732)
视频
沙龙
1
回答
如
何在
TensorFlow
中
为
CNNs
算法
开发
随机
梯度
下降
优化
器
?
、
、
我在
CNNs
中使用
TensorFlow
库,python。我想为
CNNs
优化
器
开发
一个
随机
梯度
下降
优化
器
,参数如下:decay = 1e-6, 我想知道我应该如何更改我的代码来实现这一点
浏览 8
提问于2017-07-19
得票数 1
回答已采纳
1
回答
TensorFlow
:它是否只有SGD
算法
?还是也有其他像LBFGS这样的人?
、
、
、
、
关于
TensorFlow
的问题:谢谢你的答复。
浏览 5
提问于2016-07-27
得票数 6
回答已采纳
1
回答
在
Tensorflow
中
实现fminunc函数
在
Tensorflow
中有Fminunc函数吗?我试图使我的模型更快地收敛,并认为我将能够使用fminunc函数,就像在Matlab中一样。() 但是,我没有在
Tensorflow
...Maybe中找到内置的fminunc函数,我错过了它。人们可以描述它的实现吗?或者,如果存在类似的伪装,那么在
Tensorflow
中
它被称为什么?
浏览 3
提问于2016-06-29
得票数 1
回答已采纳
2
回答
tensorflow
如何使用反向传播来训练模型?
、
、
我是
tensorflow
的初学者,我想实现MLP并基于反向传播
算法
对其进行训练,但当我阅读教程时,我发现它使用了像“
随机
梯度
下降
”这样的
优化
器
,并在没有实现
算法
阶段的情况下调用了反向传播。
浏览 8
提问于2016-12-15
得票数 1
1
回答
如何选择最优的深度学习
算法
?
、
、
、
我在使用
tensorflow
库实现
算法
方面没有问题,但我对选择哪一个
优化
器
感到困惑。我一直在尝试不同的
优化
器
,对于Adam
优化
器
和
梯度
下降
优化
器
算法
在k倍交叉验证的测试分类准确率(~84%~ 85%)方面给出了相同的结果。这两个
优化
器
的结果是相同的,是由于数据的原因,还是由于对大量数据的培训(64000个样本/故障条件
浏览 0
提问于2018-07-03
得票数 3
回答已采纳
1
回答
在
TensorFlow
中
实现
梯度
下降
,而不是使用它提供的
、
我想在
TensorFlow
中
构建分类
器
时,使用带有动量的
梯度
下降
(跟踪以前的
梯度
)。所以我不想使用
tensorflow
.train.GradientDescentOptimizer,但我想使用
tensorflow
.gradients来计算
梯度
,跟踪以前的
梯度
,并根据它们更新权重。我如
何在
TensorFlow
中
做到这一点?
浏览 16
提问于2016-08-26
得票数 5
4
回答
梯度
下降
是每个
优化
器
的核心吗?
、
、
、
、
我想知道
梯度
下降
是否是Adam、Adagrad、RMSProp和其他几个
优化
器
中使用的主要
算法
。
浏览 0
提问于2019-03-12
得票数 13
回答已采纳
1
回答
替代LBFGS,在稀疏自动编码
器
中使用
梯度
下降
、
、
、
、
在Andrew Ng的课堂讲稿
中
,他们使用了LBFGS并获得了一些隐藏的功能。我可以使用
梯度
下降
代替,并产生相同的隐藏特征吗?其他参数都是一样的,只需改变
优化
算法
即可。因为当我使用LBFGS时,我的自动编码
器
可以产生与讲座笔记
中
相同的隐藏特征,但当我使用
梯度
下降
时,隐藏层
中
的特征消失了,看起来完全是
随机
的。具体地说,为了
优化
成本函数,我实现了1)成本函数,2)每个权重和偏差的<em
浏览 0
提问于2016-05-16
得票数 0
1
回答
在
TensorFlow
上创建
优化
器
的步骤
、
、
、
、
我正在尝试实现一个新的
优化
器
,它包含在
梯度
下降
方法的很大一部分
中
(这意味着我希望执行几个
梯度
下降
步骤,然后对输出执行不同的操作,然后再执行一次)。不幸的是,我发现了2条信息; 不能使用
优化
器
执行给定数量的步骤。我是不是弄错了?因为这似乎是一个合乎逻辑的选择。考虑到1是真的,您需要使用C++作为内核编写
优化
器
,从而失去
TensorFlow
的强大可能性(比如计算
梯度</em
浏览 0
提问于2016-11-17
得票数 1
1
回答
在计算嵌入层参数时所涉及的方程是什么?
、
、
、
、
我试着用keras.I对一些数据进行情感分析,我使用嵌入层,然后是LSTM。我知道嵌入层降低了单词热编码的稀疏性,其参数在反向传播时被训练,但我不知道它的实现的数学方法。 提前谢谢。
浏览 0
提问于2019-06-05
得票数 2
2
回答
用遗传
算法
优化
神经网络--
优化
图层和权重
、
、
、
、
'mse', 'class':'binary_crossentropy'}, 现在我想用遗传
算法
来
优化
神经网络的权重、层和神经元的数量用python
中
的遗传
算法
我学了很多关于它的教程,但是我没有找到任何讨论如何实现它的资料 任何帮助都将不胜感激。
浏览 0
提问于2020-05-05
得票数 0
1
回答
Logistic回归与有日志丢失的SGDClassifier、有铰链损失的支持向量机和SGDClassifer有什么区别?
、
、
我们能不能用日志丢失的SGDClassifier代替Logistic回归,它们会有相似的结果吗?
浏览 0
提问于2021-01-04
得票数 3
1
回答
SGD分类
器
和Logisitc回归有什么区别?
、
、
、
据我理解,SGD分类
器
和Logistic回归似乎相似。损失=对数的SGD分类
器
实现Logistic回归,损失=铰链实现线性支持向量机。我还了解到logistic回归采用
梯度
下降
作为
优化
函数,SGD采用
随机
梯度
下降
,收敛速度要快得多。但这两种
算法
中
哪一种会在哪种情况下使用?
浏览 0
提问于2018-09-07
得票数 10
1
回答
如何使用keras实现简单的
梯度
下降
?
、
、
特别是,我希望应用
梯度
下降
方法来获得平滑的线条,而不是来自其他
优化
器
的
随机
特征。 Keras框架提供了各种类型的
优化
器
,
如
SGD,RMSprop,Adagrad,AdaDelta,Adam等。然而,正常的,一般的和平坦的
梯度
下降
(没有
随机
特征)在Keras官方文档
中
没有看到。关键参数、剪裁法线和剪裁值是否与普通GD相关?例如,如果SGD
优化
器使用键args,cli
浏览 13
提问于2019-11-08
得票数 1
4
回答
随机
梯度
下降
是分类
器
还是
优化
器
?
、
、
、
我是机器学习的新手,我正在尝试
为
我的一个项目分析分类
算法
。我在sklearn库
中
偶然发现了SGDClassifier。但许多论文都将SGD作为一种
优化
技术。
浏览 1
提问于2017-08-02
得票数 7
2
回答
GD、批GD、SGD和小型批处理SGD有什么不同?
、
、
这四种
梯度
下降
函数之间有何不同?批GD小批量SGD
浏览 0
提问于2019-06-15
得票数 3
回答已采纳
1
回答
在PyTorch
中
实现一种简单的
优化
算法
、
、
、
、
我目前正在学习PyTorch,以便利用它的开源自动评分功能,作为我自己的练习,我想实现一个简单的
优化
算法
,我已经在MATLAB
中
实现了这个
算法
。在MATLAB中使用精确线搜索的简单
梯度
下降
算法
可能如下所示:while residualPyTorch
中
实现这种
优化
算法
?换句话说,我想在PyTorch
浏览 7
提问于2020-12-01
得票数 0
2
回答
带间歇训练
算法
的神经网络,何时应用动量和权重衰减
、
、
、
我建立了一个神经网络,并利用
随机
梯度
下降
的反向传播成功地训练了它。现在我转到批量训练,但我有点困惑什么时候应用动量和重量衰减。在理论上,我很清楚反向传播是如何工作的,我只是停留在实现细节上。使用
随机
方法,我所要做的就是在计算了
梯度
之后立即将更新应用于权重,就像在这个伪python代码中所做的那样: for p in patterns:现在,切换到批处理更新,主要
算法
应该如下所示: for
浏览 4
提问于2014-11-15
得票数 0
1
回答
小批渐变体面和
梯度
体面之间是否有固定的关系?
、
、
对于凸
优化
,类似于logistic回归。我知道mini batch gradient decent有时可以避免局部最优。,但它们之间是否有固定的关系.
浏览 3
提问于2014-10-16
得票数 4
2
回答
随机
梯度
下降
中
的训练实例
、
newreg=d0824e455dd849b48ae833f5829d4fb5]
梯度
下降
与
随机
梯度
的区别是什么?)基于这些信息,我想了解SGD将如
何在
以下情况下进行培训:我真的很希望对这种情况有一个清晰的解释。 谢谢!
浏览 0
提问于2019-01-23
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券