腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(3892)
视频
沙龙
1
回答
反向
传播
和
梯度下降
、
我只想澄清一个疑问--我们
使用
梯度下降来优化
神经网络
的
权重
和
偏差
,并且在需要
计算
损失函数
的
偏
导数
的
步骤中
使用
反向
传播
,还是我误解了什么?
浏览 0
提问于2020-10-15
得票数 2
回答已采纳
1
回答
反向
传播
是否
使用
优化函数来更新
权重
?
、
、
我知道
反向
传播
计算
成本函数相对于模型参数(
权重
和
偏差
)
的
导数
。但是,我需要确保
反向
传播
不会更新
权重
和
偏差
;相反,它
使用
优化器来更新
权重
和
偏差
,如Adam、Gradient Descent等 提前感谢
浏览 43
提问于2020-10-29
得票数 0
回答已采纳
2
回答
神经网络
如何“记住”它学到
的
东西?
我正在试图理解
神经网络
,从我所看到
的
一切来看,我知道它们是由节点创建
的
层组成
的
。这些节点通过“加权”连接相互连接,通过输入层传递值,这些值通过节点传递,根据连接
的
“
权重
”更改它们
的
值(对吗?)。网络是否记住了加权连接之间
的
模式?它是如何记住这种模式
的
?
浏览 25
提问于2018-12-16
得票数 5
回答已采纳
2
回答
反向
传播
如何与
反向
自动分化相同(或不相同)?
、
、
、
、
有这样
的
主张: 更新:,自从写这篇文章以来,我发现这在“深度学习”6.5.9节中有介绍。见。我还发现,这篇论文对Haber
和
R
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
1
回答
反向
传播
-最简单
的
解释
、
、
你能用最简单
的
方式解释一下背靠背
的
算法(数学方程)吗? 我读过很多关于它
的
文章,所以我知道它是什么,并理解它背后
的
直觉,但我仍然不理解“升级/改变”神经元
的
分层属性
的
方程式。
浏览 0
提问于2018-08-09
得票数 1
1
回答
使用
sigmoid函数
的
导数
计算
偏差
的
差值始终为0
、
、
我正在用
python
做一个ANN,然后开始做
反向
传播
。我很快就遇到了试图
计算
偏差
的
delta值
的
问题。这成了一个问题,因为我
使用
的
是sigmoid函数,当激活值为1时,它
的
导数
(sigmoid(x)*(1-sigmoid(x)))恰好返回0。它总是返回0
的
问题是,增量也将是0,因此我将无法
反向
传播
偏差
的
浏览 6
提问于2020-11-04
得票数 0
1
回答
倒推误差对排样
矩阵
的
影响
、
、
、
、
我了解
神经网络
的
反向
传播
算法,以及误差如何在层
中
向后
传播
。也就是说,我知道,给定一个3层
的
前馈网络,改变W1
的
数量取决于第2层
和
第3层
的
权重
,以及它们激活函数
的
导数
。问:当您
的
第一层是嵌入层(即,考虑
使用
手套初始化嵌入
矩阵
),网络如何
使用
反向
传播
更新该<em
浏览 0
提问于2018-06-12
得票数 3
回答已采纳
1
回答
神经网络
反向
传播
我正在尝试理解在人工
神经网络
中
使用
的
误差
反向
传播
算法。 据我所知,每个神经元都有一个sigmoid函数
的
输出结果,该函数将每个
权重
/输入对
的
乘积之和加上一个“
偏差
”值作为参数。一旦
计算
出网络
的
总误差,就可以
使用
误差相对于各种
权重
的
导数
来找到误差函数
的
“局部最小值”。这些应该是误差最小
的</em
浏览 1
提问于2013-06-13
得票数 2
回答已采纳
1
回答
基于
神经网络
的
强化学习函数逼近
、
、
、
我试图用
神经网络
作为函数逼近器来实现用于估计q*
的
片段式半梯度Sarsa。我
的
问题是: q(S,A,w)
中
的
权向量w是指
神经网络
中
的
权值吗?如果不是,我将如何在算法中
使用
它?我
的
建议是将其附加到状态
和
动作a
中
,并将其插入到<em
浏览 0
提问于2018-03-28
得票数 2
回答已采纳
2
回答
使用
python
/
numpy
的
反向
传播
--
计算
神经网络
中
权重
和
偏差
矩阵
的
导数
、
、
、
、
我正在用
python
开发一个
神经网络
模型,
使用
各种资源将所有部分组合在一起。一切都正常,但我对一些数学问题有疑问。在
反向
传播
的
部分实现
中
,我
使用
了以下内容 m = A_prev.shape[1] dA_prev = np.dot(W.T, dZ) r
浏览 14
提问于2017-12-30
得票数 1
1
回答
神经网络
:隐层
计算
误差
、
、
我是新
的
神经网络
,并试图建立一个超简单
的
神经网络
超过一个隐藏层。 在
神经网络
训练阶段调整权值时,权值
的
调整程度部分取决于该神经元对下一层神经元
的
“误差”程度。因此,我们需要知道下一层
的
错误。只需要一个隐藏层就可以
计算
出这一点,因为我们
的
训练数据已经为我们提供了预期
的
输出,所以我们只需要
使用
输出层(简单地说,目标输出)。当存在多个隐藏层时,
计算
误差就变得非常重要。也
浏览 5
提问于2017-04-22
得票数 5
回答已采纳
1
回答
在训练过程
中
,人工神经元之间
的
连接是如何修改
的
?
、
、
在这篇演讲
中
,他说,在一开始,人工
神经网络
中人工神经元之间
的
连接是随机初始化
的
。因此,网络进行随机预测。此外,我还从网上
的
一些讲座中了解到,神经元之间
的
连接(
权重
)存储在
矩阵
中</em
浏览 1
提问于2019-12-13
得票数 3
1
回答
神经网络
优化阶次
、
、
、
我有一个关于优化谈判
的
非常基本
的
问题,当我调整
神经网络
中
的
权重
和
偏差
时,我应该:前向
传播
和
反向
传播
,
计算
梯度下降(DC)一批
的
itera
浏览 0
提问于2021-01-16
得票数 0
回答已采纳
3
回答
什么是
反向
传播
?
我有一个概念上
的
问题,因为术语困扰着我。
反向
传播
算法是一种
神经网络
训练算法,还是仅仅是一种递归算法来
计算
神经网络
的
雅可比?那么这个Jacobian将作为主要训练算法
的
一部分,例如最陡峭
的
下降?因此,
计算
雅可比
矩阵
(
神经网络
输出到网络参数
的
偏
导数
)是一种训练算法还是一种数值方法?
浏览 0
提问于2021-09-08
得票数 4
回答已采纳
1
回答
用负采样实现word2vec
、
、
、
、
我正在尝试实现word2vec
的
正向
和
反向
传播
,
使用
跳过图.我对
神经网络
很陌生,但据我所知,它是这样
的
: 我们以某种方式比较了第4步之后得到
的
输出,并
计算</
浏览 3
提问于2016-05-07
得票数 3
1
回答
用Sutskever技术
计算
反
传播
导数
、
、
在Ilya
的
中
,有一种
计算
前馈
神经网络
中
具有
反向
传播
的
导数
的
技术。“前进”阶段:“向后”阶段:,l+1不是有索引问题吗?例如,在前面阶段,我们
计算
z_l+1,但返回z_l.。 (既然这是一篇如此重要
的
论文,我想我遗漏了一些东西)
浏览 3
提问于2015-07-03
得票数 0
回答已采纳
1
回答
CNN
的
反向
传播
训练
、
、
、
、
我以前在浅层(一层或两层)
神经网络
中
工作,所以我对它们
的
工作原理有一定
的
了解,在训练过程
中
很容易直观地看到向前
和
向后传递
的
导子,目前我正在研究深层
神经网络
(更确切地说,是CNN),我读过很多关于它们
的
训练
的
文章,但我仍然无法理解CNN训练
的
总体情况,因为在某些情况下,
使用
预训练层的人
使用
自动编码提取卷积权,在某些情况下,随机权值被用于卷积,然后
使用</em
浏览 4
提问于2016-07-11
得票数 2
1
回答
神经网络
:
反向
传播
阶段一步一步
的
崩溃?
、
我必须设计一个功能强大
的
神经网络
的
动画视觉表示(即
使用
UI,允许您调整值等)。它
的
主要目的是帮助人们想象不同
的
数学操作是如何
和
何时在慢动作、实时动画中执行
的
。我
的
可视化工具
和
UI一起设置,它允许你调整值
和
改变神经元
的
布局,以及前馈阶段
的
可视化,但是由于我实际上根本不擅长
神经网络
,所以我很难找到最佳
的
方法来可视化
反向</e
浏览 0
提问于2021-01-27
得票数 2
回答已采纳
2
回答
计算
时对网络
权重
的
自定义操作
、
、
我正在
使用
TensorFlow
和
Python
创建自定义
神经网络
。在传递每个输入数据之前,我需要对
权重
和
偏差
进行更改。网络
的
架构是常见
的
(顺序
的
,有监督
的
,有
反向
传播
的
),唯一
的
区别是在每次遍历之前,我需要做一些
计算
。例如,我有一些输入(x),在我通过网络传递它们并
计算
网络结果(y)之前,在每次
浏览 71
提问于2018-06-05
得票数 2
回答已采纳
1
回答
多层
神经网络
在学习速率为0.1
的
10年代后收敛到无穷大
、
因此,我试图设计一个多层
神经网络
,由3个输入神经元、3个隐神经元
和
1个输出神经元组成。0d,1d,0d =>1d1d,1d,0d =>0d hidden[]是隐层之间
的
权值,输出层input[]是输入层
和
隐层之间
的
权重
。忽略D
浏览 2
提问于2013-12-18
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何在Python中从0到1构建自己的神经网络
基于Numpy实现的简单神经网络
神经网络和深度学习——吴恩达深度学习课程笔记(一)
如何只用NumPy码一个神经网络
第十课 CS231N 动手实现反向传播
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券