腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
神经网络
中
的
反向
传播
是
如何
工作
的
?
machine-learning
、
neural-network
、
backpropagation
我知道,在
神经网络
中
,
反向
传播
被用来
更新
模型
的
权重和
偏差
,以降低损失,但是这个过程实际上是
如何
工作
的
呢?
浏览 0
提问于2022-12-12
得票数 0
回答已采纳
1
回答
在
神经网络
中
,
偏差
项
的
权重是否在
反向
传播
中
得到
更新
?
neural-network
在
神经网络
中
,我试着把它编码出来,但被卡在了一个部分上。
偏差
项
的
权重是否在
反向
传播
中
得到
更新
?我在这里遵循算法,,他们似乎没有
更新
它,他们选择了一些
偏差
项权重
的
任意值。这是否意味着
偏差
项
的
输出为1,其权重不应改变?
浏览 3
提问于2015-12-25
得票数 4
回答已采纳
1
回答
神经网络
优化阶次
neural-network
、
deep-learning
、
gradient-descent
、
mini-batch-gradient-descent
我有一个关于优化谈判
的
非常基本
的
问题,当我调整
神经网络
中
的
权重和
偏差
时,我应该:前向
传播
和
反向
传播
,计算梯度下降(DC)一批
的
iterations_number次数,然后继续下一批。
浏览 0
提问于2021-01-16
得票数 0
回答已采纳
1
回答
神经网络
反向
传播
neural-network
、
recurrent-neural-network
我已经了解了
神经网络
,并且几乎完美地理解了
反向
传播
的
推导过程(终于!)然而,我有一个小小
的
疑问。我们同时
更新
所有的权重,那么
如何
保证它们
的
成本更小呢?如果逐个
更新
权重,肯定会导致较低
的
成本,这将类似于线性回归。但是如果你同时
更新
所有的权重,我们可能不会越过最小值? 此外,我们是否像在每个测试用例
的
前向
传播
和后向
传播
之后
更新
权重一
浏览 0
提问于2016-05-22
得票数 1
4
回答
设计
神经网络
neural-network
我正在学习
神经网络
和
反向
传播
。我想我知道网络是
如何
工作
的
,从输入、输出、隐藏层、权重、
偏差
等方面。但是,我仍然不能完全理解
如何
设计一个适合问题
的
网络。例如,我想要一个
神经网络
来学习
如何
玩跳棋,我该
如何
将这个问题转化为
神经网络
设计?干杯:)
浏览 3
提问于2013-06-13
得票数 33
回答已采纳
1
回答
如何
计算卷积
神经网络
中
的
偏差
梯度?
machine-learning
、
neural-network
、
conv-neural-network
、
backpropagation
、
bias-neuron
我很难在网上找到关于
如何
在卷积
神经网络
中使用
偏差
进行
反向
传播
的
资源。我所说
的
偏差
是指通过卷积得到
的
每个数字相加
的
数字。Here is a picture further explaining 我知道
如何
计算滤波器权重
的
梯度,但我不确定
如何
处理
偏差
。现在,我只是根据该层
的
平均误差来调整它。这是正确
的
吗?
浏览 57
提问于2019-09-21
得票数 0
回答已采纳
1
回答
在2个
神经网络
的
组合中使用
反向
传播
进行权重
更新
neural-network
、
deep-learning
、
backpropagation
每个
神经网络
都通过
反向
传播
来
更新
其权重。假设一个
神经网络
模型堆叠在另一个
神经网络
模型上,在这种体系结构
中
,
反向
传播
如何
用于权重
更新
。wrt单
神经网络
模型在权重
更新
方面有什么不同?
浏览 3
提问于2018-11-10
得票数 0
1
回答
反向
传播
是否使用优化函数来
更新
权重?
deep-learning
、
backpropagation
、
optimizer-deeplearning
我知道
反向
传播
计算成本函数相对于模型参数(权重和
偏差
)
的
导数。但是,我需要确保
反向
传播
不会
更新
权重和
偏差
;相反,它使用优化器来
更新
权重和
偏差
,如Adam、Gradient Descent等 提前感谢
浏览 43
提问于2020-10-29
得票数 0
回答已采纳
2
回答
反向
传播
如何
与
反向
自动分化相同(或不相同)?
algorithm
、
neural-network
、
backpropagation
、
calculus
、
automatic-differentiation
有这样
的
主张:
更新
:,自从写这篇文章以来,我发现这在“深度学习”6.5.9节中有介绍。见。我还发现,这篇论文对Haber和Ruthotto
的
“
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
1
回答
卷积
神经网络
的
反向
传播
deep-learning
、
neural-network
、
cnn
、
backpropagation
、
mathematics
我已经看过很多关于这个主题
的
文章,基于Jefkine
的
卷积
神经网络
的
反向
传播
似乎是最好
的
。尽管,正如作者所说,📷📷 我想出了
如何
用步幅、深度和更多
的
滤波器来
浏览 0
提问于2018-07-21
得票数 2
1
回答
如何
实现批量
反向
传播
c++
、
machine-learning
、
backpropagation
我已经成功地实现了随机
反向
传播
,我正在努力提高它
的
准确性。我注意到批量
反向
传播
似乎更受欢迎,我想试着看看这是否会提高网络
的
准确性,但我似乎找不出
如何
实现它。我所说
的
“批量
反向
传播
”指的是
反向
传播
,其中权重和
偏差
仅在小批量或时期完成后
更新
,而不是在每次输入后
更新
。 我
的
理解是,您总结需要对每个权重和
偏差<
浏览 0
提问于2018-12-31
得票数 1
1
回答
反向
传播
和梯度下降
machine-learning
、
neural-network
我只想澄清一个疑问--我们使用梯度下降来优化
神经网络
的
权重和
偏差
,并且在需要计算损失函数
的
偏导数
的
步骤中使用
反向
传播
,还是我误解了什么?
浏览 0
提问于2020-10-15
得票数 2
回答已采纳
1
回答
重建和
反向
传播
有什么区别?
neural-network
、
backpropagation
、
rbm
我正在学习一个关于理解限制Boltzmann机器 (RBM)
的
教程,我注意到他们同时使用了术语reconstruction和backpropagation来描述
更新
权重
的
过程。它们似乎在引用输入和第一个隐藏层之间
的
链接时使用重构,然后在引用到输出层
的
链接时使用
反向
传播
。 这些术语是互换使用
的
,还是不同
的
概念?
浏览 0
提问于2018-12-17
得票数 0
回答已采纳
3
回答
如何
更新
神经网络
反向
传播
中
的
偏差
?
machine-learning
、
math
、
neural-network
有人能给我解释一下
如何
在
反向
传播
过程
中
更新
偏差
吗?我知道偏置是一个附加了权重
的
1
的
额外输入(对于每个神经元)。一定有一个公式。
浏览 3
提问于2010-09-23
得票数 79
1
回答
神经网络
.调整权重
neural-network
、
backpropagation
我
的
问题是关于
反向
传播
和理解术语前馈
神经网络
和
反向
传播
。我真的有两个问题: 如果我正确理解,甚至前馈网络也会
更新
其权重(例如,通过增量规则)。这不是也是
反向
传播
吗?您有一些随机权重,通过网络运行数据,然后交叉验证它与期望
的
输出,然后
更新
规则。这是
反向
传播
对吧?那么FFW
神经网络
和RNN有什么区别呢?另一方面,如果不能
反向
浏览 0
提问于2017-04-19
得票数 2
回答已采纳
2
回答
学习率对后背助力梯度
的
影响
python
、
optimization
、
pytorch
我想知道在
神经网络
层
的
反向
传播
过程
中
,是否设置了学习速率来
更新
权重。重量是
如何
和在哪里
更新
的
? 我看不到优化器、学习率和
反向
传播
函数之间
的
联系。
浏览 4
提问于2021-09-14
得票数 1
回答已采纳
1
回答
反向
传播
-最简单
的
解释
neural-network
、
deep-learning
、
backpropagation
你能用最简单
的
方式解释一下背靠背
的
算法(数学方程)吗? 我读过很多关于它
的
文章,所以我知道它是什么,并理解它背后
的
直觉,但我仍然不理解“升级/改变”神经元
的
分层属性
的
方程式。
浏览 0
提问于2018-08-09
得票数 1
2
回答
如何
用
神经网络
实现Q学习?
neural-network
、
reinforcement-learning
我已经创建了一个具有2个输入节点、4个隐藏节点和3个输出节点
的
神经网络
。初始权值在-1到1之间是随机
的
。我使用
反向
传播
方法来
更新
具有TD误差
的
网络。然而,性能并不好。如果有人能为我提供任何示例代码,我将非常感激。
浏览 0
提问于2012-12-18
得票数 2
0
回答
卷积
神经网络
的
反向
传播
算法
python-3.x
、
statistics
1)请纠正我
的
理解:前馈
神经网络
和CNN只学习权重并向前传递,它不会通过
反向
传播
比较实际值和预测值之间
的
误差来
更新
权重? 2)如果我想在CNN中使用
反向
传播
方法,我需要包含哪些步骤?3)如果CNN无法进行
反向
传播
,
如何
更新
权重?
浏览 6
提问于2017-12-06
得票数 0
1
回答
如何
阻止变量被
更新
?
python
、
tensorflow
、
machine-learning
、
neural-network
在Tensorflow
中
训练
神经网络
之后,
如何
阻止它
更新
权重和
偏差
以测试它们的当前值?据我所知,您可以使用inspect_checkpoint.print_tensors_in_checkpoint_file来检查它们,但是它作为输出提供
的
内容并不需要计算。我已经试过了 tf.train.Saver.restore --这只是在保存了变量之后才使
反向
传播
恢复了生机(与我想要
的
完全相反!)tf.variable_scope.reus
浏览 0
提问于2018-03-20
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何计算浅层神经网络的反向传播
深度神经网络的正向传播与反向传播
你看到的最直白清晰的,神经网络中的反向传播法讲解
知识卡片 反向传播中的梯度
带你领略高逼格的“反向传播算法”在人工神经网络中的应用
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券