腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
什么时候
应该
使用
反向
传播
更新
神经网络
中
的
权重
?
machine-learning
、
neural-network
假设我有一个3层完全连接
的
神经网络
。我正在实现
反向
传播
算法。我
的
问题是,我
应该
首先计算增量,然后在
反向
传播
完成后,
更新
权重
,还是
应该
在通过层
反向
传播
时进行
更新
?我不确定,因为如果我在
反向
传播
过程
中
更新
权重
,我会
使用
新
更新
<
浏览 44
提问于2019-02-21
得票数 0
1
回答
在2个
神经网络
的
组合中
使用
反向
传播
进行
权重
更新
neural-network
、
deep-learning
、
backpropagation
每个
神经网络
都通过
反向
传播
来
更新
其
权重
。假设一个
神经网络
模型堆叠在另一个
神经网络
模型上,在这种体系结构
中
,
反向
传播
如何用于
权重
更新
。wrt单
神经网络
模型在
权重
更新
方面有什么不同?
浏览 3
提问于2018-11-10
得票数 0
0
回答
卷积
神经网络
的
反向
传播
算法
python-3.x
、
statistics
1)请纠正我
的
理解:前馈
神经网络
和CNN只学习
权重
并向前传递,它不会通过
反向
传播
比较实际值和预测值之间
的
误差来
更新
权重
? 2)如果我想在CNN中
使用
反向
传播
方法,我需要包含哪些步骤?3)如果CNN无法进行
反向
传播
,如何
更新
权重
?
浏览 6
提问于2017-12-06
得票数 0
1
回答
神经网络
.调整
权重
neural-network
、
backpropagation
我
的
问题是关于
反向
传播
和理解术语前馈
神经网络
和
反向
传播
。我真的有两个问题: 如果我正确理解,甚至前馈网络也会
更新
其
权重
(例如,通过增量规则)。这不是也是
反向
传播
吗?您有一些随机
权重
,通过网络运行数据,然后交叉验证它与期望
的
输出,然后
更新
规则。这是
反向
传播
对吧?那么FFW
神经网络
和RNN有什么区别呢?另一方面,如
浏览 0
提问于2017-04-19
得票数 2
回答已采纳
2
回答
学习率对后背助力梯度
的
影响
python
、
optimization
、
pytorch
我想知道在
神经网络
层
的
反向
传播
过程
中
,是否设置了学习速率来
更新
权重
。重量是如何和在哪里
更新
的
? 我看不到优化器、学习率和
反向
传播
函数之间
的
联系。
浏览 4
提问于2021-09-14
得票数 1
回答已采纳
1
回答
倒推误差对排样矩阵
的
影响
machine-learning
、
deep-learning
、
word-embeddings
、
backpropagation
、
embeddings
我了解
神经网络
的
反向
传播
算法,以及误差如何在层
中
向后
传播
。也就是说,我知道,给定一个3层
的
前馈网络,改变W1
的
数量取决于第2层和第3层
的
权重
,以及它们激活函数
的
导数。问:当您
的
第一层是嵌入层(即,考虑
使用
手套初始化嵌入矩阵),网络如何
使用
反向
传播
更新
该矩阵?如何将该层表示为一个由输入和一些<e
浏览 0
提问于2018-06-12
得票数 3
回答已采纳
1
回答
在训练CNN时,输入word2vec是如何微调
的
?
nlp
、
svm
、
deep-learning
当我读到“用于句子分类
的
卷积
神经网络
”时,我注意到该论文实现了“CNN-非静态”模型--一个
使用
来自word2vec
的
预训练向量
的
模型,所有的单词--包括随机初始化
的
未知单词,和预训练向量对每个任务都进行了微调所以我只是不明白预先训练好
的
向量是如何对每个任务进行微调
的
。因为据我所知,输入向量是由word2vec.bin(预训练)从字符串转换而来
的
,就像图像矩阵一样,在训练CNN过程
中
不能改变。
浏览 4
提问于2016-10-18
得票数 1
1
回答
神经网络
中
的
反向
传播
是如何工作
的
?
machine-learning
、
neural-network
、
backpropagation
我知道,在
神经网络
中
,
反向
传播
被用来
更新
模型
的
权重
和偏差,以降低损失,但是这个过程实际上是如何工作
的
呢?
浏览 0
提问于2022-12-12
得票数 0
回答已采纳
1
回答
神经网络
优化阶次
neural-network
、
deep-learning
、
gradient-descent
、
mini-batch-gradient-descent
我有一个关于优化谈判
的
非常基本
的
问题,当我调整
神经网络
中
的
权重
和偏差时,我
应该
:前向
传播
和
反向
传播
,计算梯度下降(DC)一批
的
iterations_number次数,然后继续下一批。
浏览 0
提问于2021-01-16
得票数 0
回答已采纳
1
回答
神经网络
反向
传播
neural-network
、
recurrent-neural-network
我已经了解了
神经网络
,并且几乎完美地理解了
反向
传播
的
推导过程(终于!)然而,我有一个小小
的
疑问。我们同时
更新
所有的
权重
,那么如何保证它们
的
成本更小呢?如果逐个
更新
权重
,肯定会导致较低
的
成本,这将类似于线性回归。但是如果你同时
更新
所有的
权重
,我们可能不会越过最小值? 此外,我们是否像在每个测试用例
的
前向
传播
和后向
传播</e
浏览 0
提问于2016-05-22
得票数 1
1
回答
多层
神经网络
训练过程
java
、
neural-network
、
artificial-intelligence
、
computer-science
、
backpropagation
我在建立一个多层
神经网络
。我有关于培训过程
的
问题,我有一套培训-数据与期望
的
产出。我
使用
反向
传播
算法
更新
连接
权重
。这是对
的
吗?
浏览 5
提问于2016-10-16
得票数 0
回答已采纳
1
回答
在
神经网络
中
,偏差项
的
权重
是否在
反向
传播
中
得到
更新
?
neural-network
在
神经网络
中
,我试着把它编码出来,但被卡在了一个部分上。偏差项
的
权重
是否在
反向
传播
中
得到
更新
?我在这里遵循算法,,他们似乎没有
更新
它,他们选择了一些偏差项
权重
的
任意值。这是否意味着偏差项
的
输出为1,其
权重
不应改变?
浏览 3
提问于2015-12-25
得票数 4
回答已采纳
1
回答
多层
神经网络
中一个随机层
的
权值
更新
?
neural-network
、
deep-learning
、
backpropagation
、
generalization
在采用
反向
传播
的
多层
神经网络
训练
中
,每一次迭代都会
更新
各层
的
权值.它将如何影响培训时间?模型性能(模型
的
泛化能力)是否受到这类培训
的
影响? 我
的
直觉是,泛化能力是一样
的
,训练时间也会减少。如果我错了,请改正。
浏览 1
提问于2018-12-11
得票数 0
回答已采纳
1
回答
神经网络
最小分批梯度下降
machine-learning
、
neural-network
、
gradient-descent
我用
的
是多层
神经网络
。我打算做小批量梯度下降。假设我有100多万个数据点
的
小型批次。我不明白为什么我要
更新
整个网络
的
权重
。当我向前通过这100个样本时,我把这100个样本上
的
所有误差加在一起。我是否也必须并行计算隐藏
的
层错误?
什么时候
计算?
浏览 1
提问于2014-08-16
得票数 4
回答已采纳
3
回答
CNN前馈或
反向
传播
模型
neural-network
、
computer-vision
、
deep-learning
、
conv-neural-network
卷积
神经网络
(CNN)是前馈模型还是
反向
传播
模型。通过比较
的
博客和维基百科对CNN
的
定义,我得到了这种困惑。
浏览 0
提问于2017-03-14
得票数 3
2
回答
GA训练
的
NN在测试集上
的
表现比BP训练
的
NN差
neural-network
、
genetic-algorithm
、
backpropagation
我用GA和
反向
传播
训练了一个
神经网络
。GA为训练数据找到合适
的
权重
,但在测试数据上表现不佳。如果我用BackPropagation训练NN,它在测试数据上
的
表现要好得多,即使训练误差并不比GA训练
的
版本小很多。即使我
使用
GA获得
的
权重
作为
反向
传播
的
初始
权重
,NN在测试数据上
的
表现也比仅
使用
反向
浏览 3
提问于2017-08-24
得票数 0
1
回答
神经网络
训练期间
的
Elman和Jordan上下文值
neural-network
、
encog
我知道
反向
传播
是如何随时间
更新
权重
的
,但是上下文神经元是如何
更新
的
呢?为什么这些值实际上允许简单
的
递归
神经网络
随着时间
的
推移实际识别输入数据
中
的
模式?
浏览 2
提问于2013-05-25
得票数 1
回答已采纳
1
回答
CNN
的
反向
传播
训练
image-processing
、
machine-learning
、
computer-vision
、
deep-learning
、
backpropagation
我以前在浅层(一层或两层)
神经网络
中
工作,所以我对它们
的
工作原理有一定
的
了解,在训练过程
中
很容易直观地看到向前和向后传递
的
导子,目前我正在研究深层
神经网络
(更确切地说,是CNN),我读过很多关于它们
的
训练
的
文章,但我仍然无法理解CNN训练
的
总体情况,因为在某些情况下,
使用
预训练层的人
使用
自动编码提取卷积权,在某些情况下,随机权值被用于卷积,然后
使用
反向</
浏览 4
提问于2016-07-11
得票数 2
1
回答
二层
神经网络
中
权值
的
更新
machine-learning
、
neural-network
、
artificial-intelligence
、
biological-neural-network
我试图
使用
类似于此
的
神经网络
来模拟异或门:现在我了解到每个神经元都有一定
的
权重
和偏倚。我
使用
一个来确定神经元是否
应该
在每一种状态下触发(因为这
使用
的
是乙状结肠而不是阶跃函数,所以我
使用
的
是松散
的
触发,因为它实际上显示了真值)。我成功地对饲料转发部分进行了仿真,现在我想
使用
算法
更新
权重
并对模型进行训练。这意味着我们将得
浏览 6
提问于2016-06-05
得票数 0
回答已采纳
4
回答
反向
传播
和前馈
神经网络
有什么区别?
machine-learning
、
neural-network
、
classification
、
backpropagation
反向
传播
和前馈
神经网络
有什么区别? 除了流向之外,还有其他
的
区别吗?假设我正在实现
反向
传播
,即它包含正向和
反向
流。那么,
反向
传播
是否足以显示前馈?
浏览 10
提问于2015-02-09
得票数 42
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
带你领略高逼格的“反向传播算法”在人工神经网络中的应用
无需深度学习框架,如何从零开始用Python构建神经网络
如何在Python中从0到1构建自己的神经网络
第五篇:神奇的神经网络(2)
深度学习之人工神经网络及优化(二)
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券