腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3488)
视频
沙龙
1
回答
反向
传播
中
获取
增量
项
时
的
尺寸
误差
(
神经网络
)
python
、
neural-network
、
backpropagation
我正在创建一个具有以下维度
的
三层图像识别
神经网络
: 400个特征,40个节点,40个节点,10个目标(从数字0到9
的
图像),因此这些是我
的
权重(θ): theta1 = np.random.uniform我在恢复
传播
方面遇到了一些麻烦。首先,我通过找出实际结果和预测之间
的
差异来获得delta_4
项
。然后,使用以下方程获得剩余
的
增量
项
, ? 其中g‘是sigmoid函数
的
导数。delta_p
浏览 7
提问于2021-07-23
得票数 0
1
回答
为什么Relu比Sigmoid激活函数表现出更好
的
收敛性?
deep-learning
、
neural-network
与sigmoid激活函数相比,Relu在梯度下降优化
中
具有更好
的
收敛性能。据我所知,当Z接近小于0
时
,梯度下降
的
升升太慢,但当z小于0
时
,relu也有梯度0,那么差别是什么?
浏览 0
提问于2021-08-16
得票数 0
5
回答
在C++
中
实现一个简单
的
神经网络
从头开始工作
c++
、
neural-network
我一直试图得到一个简单
的
双异或
神经网络
工作,我有问题,得到
反向
传播
,以训练一个真正简单
的
前馈
神经网络
。 值是通过从输入到该神经元
的
所有输入之和中提取sigmoid函数
的
结果来计算
的
。然后,使用每个神经元
的
权重将其传送到下一层。在运
浏览 7
提问于2010-01-07
得票数 38
1
回答
如何计算卷积层
的
增量
项
,给定前一卷积层
的
增量
项
和权重?
machine-learning
、
data-mining
、
neural-network
、
deep-learning
我试图训练一个包含两个卷积层(c1,c2)和两个隐藏层(c1,c2)的人工
神经网络
。我使用
的
是标准
的
反向
传播
方法。在
反向
传递
中
,我根据前一层
的
误差
、前一层
的
权重和激活梯度相对于当前层
的
激活函数来计算一层(delta)
的
误差
项
。我只是把h1
的
权重乘以它
的
增量
。然后将该矩阵重构为c2
的</
浏览 0
提问于2015-06-02
得票数 10
1
回答
神经网络
中
输入层
的
反向
传播
neural-network
我有个关于
神经网络
反向
传播
的
问题。假设我们有一个经过训练
的
DNN来处理一些数据。然后,我们将一个损坏
的
数据输入到NN
中
,并将错误
反向
传播
,而不是直到第一个隐藏层,而是直到输入层(也就是说,我们计算输入神经元
的
增量
)。错误
项
是否显示了“干净”和“损坏”向量之间
的
不匹配?
浏览 5
提问于2014-08-02
得票数 3
回答已采纳
1
回答
反向
传播
误差
导数
neural-network
、
gradient
、
backpropagation
我正在学习用于训练
神经网络
的
反向
传播
算法。这有点道理,但有一点我还是不明白。这似乎是对
的
,但是为什么梯度没有标准化呢?
增量
向量
的
长度与梯度向量
的
长度成正比背后
浏览 1
提问于2016-02-01
得票数 1
1
回答
什么时候应该使用
反向
传播
更新
神经网络
中
的
权重?
machine-learning
、
neural-network
假设我有一个3层完全连接
的
神经网络
。我正在实现
反向
传播
算法。我
的
问题是,我应该首先计算
增量
,然后在
反向
传播
完成后,更新权重,还是应该在通过层
反向
传播
时
进行更新?我不确定,因为如果我在
反向
传播
过程
中
更新权重,我会使用新更新
的
权重(隐藏到输出权重)来计算隐藏层
增量
,并且我不确定这是否是所需
的
。 如
浏览 44
提问于2019-02-21
得票数 0
1
回答
LSTM损耗函数与
反向
传播
lstm
、
rnn
、
training
、
backpropagation
我试图理解损失函数和
反向
传播
之间
的
联系。据我所知,在LSTM算法
中
,
反向
传播
被用来
获取
和更新矩阵,在前向
传播
中使用偏差来
获取
当前
的
单元和隐藏状态。损失函数取训练集
的
预测输出和实际输出。但哪一部分是LSTM
的
培训部分?它们之间有某种联系吗?LSTM模式
的
培训目标是什么?
浏览 0
提问于2019-08-31
得票数 0
3
回答
CNN前馈或
反向
传播
模型
neural-network
、
computer-vision
、
deep-learning
、
conv-neural-network
卷积
神经网络
(CNN)是前馈模型还是
反向
传播
模型。通过比较
的
博客和维基百科对CNN
的
定义,我得到了这种困惑。
浏览 0
提问于2017-03-14
得票数 3
2
回答
反向
传播
中
的
梯度检验
neural-network
、
backpropagation
我试图实现一个简单
的
前馈
神经网络
的
梯度检查,它包含两个单位输入层,两个单位隐层和一个单位输出层。我要做
的
是: 利用两种前馈
传播
的
结果计算数值梯度。我不明白
的
是如何准确地执行
反向
传播
。通常,我将网络
的
输出与目标数据进行比较(在分类
的
情况下),然后在网络<em
浏览 6
提问于2014-10-04
得票数 6
回答已采纳
4
回答
反向
传播
和前馈
神经网络
有什么区别?
machine-learning
、
neural-network
、
classification
、
backpropagation
反向
传播
和前馈
神经网络
有什么区别? 除了流向之外,还有其他
的
区别吗?假设我正在实现
反向
传播
,即它包含正向和
反向
流。那么,
反向
传播
是否足以显示前馈?
浏览 10
提问于2015-02-09
得票数 42
回答已采纳
1
回答
反向
传播
-最简单
的
解释
neural-network
、
deep-learning
、
backpropagation
你能用最简单
的
方式解释一下背靠背
的
算法(数学方程)吗? 我读过很多关于它
的
文章,所以我知道它是什么,并理解它背后
的
直觉,但我仍然不理解“升级/改变”神经元
的
分层属性
的
方程式。
浏览 0
提问于2018-08-09
得票数 1
1
回答
神经网络
.调整权重
neural-network
、
backpropagation
我
的
问题是关于
反向
传播
和理解术语前馈
神经网络
和
反向
传播
。我真的有两个问题: 如果我正确理解,甚至前馈网络也会更新其权重(例如,通过
增量
规则)。这不是也是
反向
传播
吗?您有一些随机权重,通过网络运行数据,然后交叉验证它与期望
的
输出,然后更新规则。这是
反向
传播
对吧?那么FFW
神经网络
和RNN有什么区别呢?另一方面,如果不能
反向
传播
,如
浏览 0
提问于2017-04-19
得票数 2
回答已采纳
1
回答
用一个输出节点和两个节点对两个类进行人工
神经网络
分类有什么区别?
neural-network
当使用人工
神经网络
对两类任务进行分类
时
。输出节点可以是一个或两个。例如。在
反向
传播
过程
中
,它将从输出层得到两个
增量
.但是对于一个节点,它只
传播
一个
增量
回。 是这两者
的
区别吗?
浏览 1
提问于2014-04-14
得票数 0
1
回答
四参数函数逼近
的
神经网络
neural-network
、
backpropagation
我有一个函数,看起来像这样:我想通过使用
反向
传播
训练
神经网络
来近似这个函数。对于我来说,变量a、b、c和d
的
范围目前是不确定
的
,因此首先我假设它们都在0,1
的
范围内。然后,我通过假设变量
的
均匀分布来生成训练集。在找到适当数量
的
隐藏节点和层以及良好
的
反向
传播
学习率和动量值后,我可以使用此范围在测试集上达到较低
的
平均
误差
。然而
浏览 2
提问于2015-07-06
得票数 4
1
回答
多层
神经网络
的
反向
传播
c#
、
neural-network
、
deep-learning
、
backpropagation
我正在用c#制作一个不用任何库或Accord.Net
的
神经网络
系统。但我在如何支持我
的
错误上陷入困境。我是否必须包括我已经
传播
到下一层
的
所有层,还是只有前一层在等式
中
得到?编辑以
获取
更多信息: 我
的
网络结构大多是动态
的
。它创建了一个用户输入
的
神经网络
,每层有多少层和节点数。它根据所使用
的
数据集创建输入和输出层。我理解
反向
传播
是如何运作和使用<em
浏览 1
提问于2018-06-20
得票数 2
回答已采纳
1
回答
如何在
神经网络
中
处理多个正确
的
输出
artificial-intelligence
、
neural-network
我一直在研究一些基本
的
神经网络
。到目前为止,我只知道前馈和
反向
传播
类型。我想知道当某个输入有多个正确
的
输出
时
,如何计算
误差
。
浏览 0
提问于2014-05-26
得票数 1
1
回答
如何在使用Q-Learning
时
使用theano计算
神经网络
的
梯度
neural-network
、
theano
、
reinforcement-learning
我正在尝试使用一个标准
的
全连接
神经网络
作为Q-Learning
中
动作值
的
基础。gparams = [T.grad(cost, param) for param in classifier.params] 我想使用Q-Learning策略控制方法(如中所述)计算与最后一个操作相关联
的
输出单元
的
误差
,并将其他输出
误差
设置为零。如何使用Theano
的
grad函数将
误差
反向
传播
到
神
浏览 1
提问于2016-04-02
得票数 0
1
回答
感知器
中
每个训练示例
的
权重是不同
的
machine-learning
、
neural-network
、
perceptron
我是第一次接触
神经网络
。我有1000个示例
的
训练数据集。每个示例包含5个功能。example2 => [f1,f2,f3,f4,f5] -> [w1e2,w2e2,w3e2,w4e2,w5e2] 在这里,w1表示第一权重,e1,e2表示不同
的
示例or example1,example2,... -
浏览 12
提问于2017-08-22
得票数 0
回答已采纳
2
回答
反向
传播
中使用
的
值
的
调整
machine-learning
、
neural-network
、
backpropagation
我正在学习调整权值
的
反向
传播
方法。用于确定对各自权重
的
更改
的
公式
的
推广如下哪里总
误差
随第一权值
的
变化而变化
的
比率.我明白为什么这个值在我们试图用
反向
传播
实现
的
上下文中很有趣,但我不完全理解为什么在确定如何调整新
的
权重
时
,这是一个很好
的
值,特别是当有多个权重影响总
误差
时
。为什么这是一
浏览 0
提问于2020-01-17
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
反向传播算法推导-卷积神经网络
从0到1:神经网络实现图像识别(五)
反向传播算法推导-全连接神经网络
BP神经网络
卷积神经网络详解(二)——自己手写一个卷积神经网络
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券