腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(292)
视频
沙龙
1
回答
神经网络
:反向传播阶段一步一步
的
崩溃?
、
我必须设计一个功能强大
的
神经网络
的
动画视觉表示(即使用UI,允许您调整值等)。它
的
主要目的是帮助人们想象不同
的
数学操作是如何和何时在慢动作、实时动画中执行
的
。我
的
可视化工具和UI一起设置,它允许你调整值和改变神经元
的
布局,以及前馈阶段
的
可视化,但是由于我实际上根本不擅长
神经网络
,所以我很难找到最佳
的
方法来可视化反向传播阶段--主要是因为我在这一阶段找出了精确
的
操作顺序但这正是我真正
浏览 0
提问于2021-01-27
得票数 2
回答已采纳
2
回答
激活函数
的
导数
及其在反繁殖中
的
应用
、
、
、
我正在阅读文档,他们说,
权重
调整公式如下: 这个问题发生在这个问题之后,并且与它密切相关:。
浏览 2
提问于2012-03-20
得票数 10
回答已采纳
1
回答
神经网络
梯度
下降
:
权重
导数
不
对齐
的
矩阵
形状
、
、
、
我正在尝试从头开始创建自己
的
网络(不使用keras或tensorflow等库),以更好地理解机器学习和
神经网络
。我遇到了一个问题,当使用具有特定层配置
的
网络时,
梯度
下降
不能正常工作。由于每一层
的
值是相应
权重
集合
的
导数
,并且
导数
相乘在一起将
权重
链接在更接近输入到输出
的
位置,因此相乘后
的
层不起作用。例如,一个具有2个输入神经元、3个隐藏神经元和1个输出神经元
的
浏览 30
提问于2020-04-17
得票数 0
回答已采纳
2
回答
反向传播如何与反向自动分化相同(或不相同)?
、
、
、
、
有这样
的
主张: 更新:,自从写这篇文章以来,我发现这在“深度学习”6.5.9节中有介绍。见。我还发现,这篇论文对Haber和Ruthotto
的
“深度
神经网络
<em
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
1
回答
反向传播和
梯度
下降
、
我只想澄清一个疑问--我们使用
梯度
下降
来优化
神经网络
的
权重
和偏差,并且在需要计算损失函数
的
偏
导数
的
步骤中使用反向传播,还是我误解了什么?
浏览 0
提问于2020-10-15
得票数 2
回答已采纳
1
回答
在训练过程中,人工神经元之间
的
连接是如何修改
的
?
、
、
在这篇演讲中,他说,在一开始,人工
神经网络
中人工神经元之间
的
连接是随机初始化
的
。因此,网络进行随机预测。此外,我还从网上
的
一些讲座中了解到,神经元之间
的
连接(
权重
)存储在
矩阵
中。问题也就是
浏览 1
提问于2019-12-13
得票数 3
1
回答
梯度
下降
算法中激活函数
的
导数
、
、
、
、
为什么在更新模型(回归或
神经网络
)参数时需要计算激活函数
的
导数
?为什么线性函数
的
恒定
梯度
被认为是一个缺点?据我所知,当我们使用公式进行随机
梯度
下降
时: 那么,
权重
也会被很好地更新,那么为什么
导数
浏览 0
提问于2019-07-13
得票数 1
3
回答
什么是反向传播?
我有一个概念上
的
问题,因为术语困扰着我。反向传播算法是一种
神经网络
训练算法,还是仅仅是一种递归算法来计算
神经网络
的
雅可比?那么这个Jacobian将作为主要训练算法
的
一部分,例如最陡峭
的
下降
?因此,计算雅可比
矩阵
(
神经网络
输出到网络参数
的
偏
导数
)是一种训练算法还是一种数值方法?
浏览 0
提问于2021-09-08
得票数 4
回答已采纳
1
回答
如何调整权值-反向传播
、
、
、
我决定用遗传算法训练
神经网络
。它们将通过遗传发展,其中一个(多个)可变基因应该是传递函数。例如,我有三个转移功能基因
的
变体。1)log函数3)高斯函数
神经网络
输出有误差,如何通过不同参数
的
不同函数对权值进行传递?根据我
的
研究,我
浏览 3
提问于2012-02-20
得票数 3
3
回答
具有softmax激活
的
神经网络
、
、
、
编辑:用于隐藏层激活
的
Logistic sigmoid,用于输出层和输出激活
的
输出最大软件 我利用
梯度
下降
来寻找局部最大值,以调整隐藏节点
的
权重
和输出节点
的
权重
。对于softmax (或者我是否可以使用
梯度
下降</
浏览 5
提问于2010-04-21
得票数 3
回答已采纳
3
回答
节点
梯度
在
神经网络
中代表什么?
(代码是一团糟,我只是在乱搞)用这个简单
的
3层
神经网络
来处理: 我
的
计算结果和这本书差不多(把差异归因于四舍五入):h1 delta-> o1: 0.04518482993361776但是
梯度
到底是什么呢它们是单个节点对o1错误
的
贡献吗?
浏览 4
提问于2014-07-15
得票数 6
回答已采纳
2
回答
神经网络
首先学到了什么?
、
例如,当我们训练一个分类对象
的
网络时,训练集
的
准确度通常很低,并且在整个时期都会提高。我
的
问题是,在这些早期时代,我
的
训练集
的
哪些例子被正确地分类了?它们是“最简单
的
”例子,还是简单
的
第一例?在我看来,它们是最简单
的
例子,也就是那些很容易区别开来
的
例子。 如果有数学解释的话我会很高兴
的
。任何帮助都是非常感谢
的
!
浏览 0
提问于2018-10-02
得票数 5
1
回答
如何更新
权重
和偏差
、
、
、
我正试图从零开始编写一个numpy
神经网络
来识别hand_written_digits.but,我在更新
权重
和偏差方面有点困惑。这是我
的
密码 ephochs = 10000有人能解释一下这个
神经网络
的
权重
和偏差逐步更新
的
过程吗?
浏览 0
提问于2019-08-24
得票数 0
回答已采纳
2
回答
有没有反向传播
的
替代方案?
、
、
我知道
神经网络
可以使用
梯度
下降
进行训练,我知道它是如何工作
的
。 最近,我偶然发现了其他训练算法:共轭
梯度
算法和准牛顿算法。我试图理解它们是如何工作
的
,但我能得到
的
唯一好
的
直觉是它们使用了更高阶
的
导数
。 我
的
问题如下:我提到
的
那些替代算法与通过使用损失函数
的
梯度
调整
权重
的
反向传播过程有根本不同吗?如果没有,是否有
浏览 39
提问于2019-03-22
得票数 6
回答已采纳
6
回答
为什么我们在计算反向传播算法时要取传递函数
的
导数
?
、
、
求
导数
背后
的
概念是什么?有趣
的
是,为了以某种方式教授一个系统,我们必须调整它
的
权重
。但我们为什么要用传递函数
的
导数
来做这件事。在推导中有什么对我们有帮助。我知道
导数
是连续函数在给定点
的
斜率,但它与问题有什么关系?
浏览 0
提问于2016-03-03
得票数 5
1
回答
神经网络
训练中
梯度
和偏
导数
的
解释
、
、
、
、
我试图通过了解如何解释
梯度
及其偏
导数
来理解
神经网络
训练中偏微分
的
目的。下面是我解释它们
的
方法,所以我想知道我是否正确,如果不是,是否有人能指出我
的
正确方向。如果我们处理
的
函数依赖于几个变量,那么这个函数对所有这些因变量
的
导数
就是一个
梯度
(即偏
导数
的
向量),它指向函数极值
的
方向。每个偏
导数
对应于我们试图优化
的
N维空间中
的<
浏览 0
提问于2020-01-17
得票数 3
回答已采纳
1
回答
在预先训练
的
神经网络
的
输入上进行
梯度
下降
以实现目标y值
、
、
我有一个经过训练
的
神经网络
,它适当地将我
的
输入映射到我
的
输出。那么,是否可以指定所需
的
y输出,然后使用
梯度
下降
方法来确定最佳输入值以获得该输出?在使用反向传播时,
权重
的
偏
导数
与误差函数一起用于按比例调整
权重
;是否有方法可以对输入值本身和目标y值执行类似的操作?
浏览 0
提问于2015-01-14
得票数 0
1
回答
基于
神经网络
的
强化学习函数逼近
、
、
、
我试图用
神经网络
作为函数逼近器来实现用于估计q*
的
片段式半
梯度
Sarsa。我
的
问题是: q(S,A,w)中
的
权向量w是指
神经网络
中
的
权值吗?如果不是,我将如何在算法中使用它?我
的
建议是将其附加到状态和动作a中,并将其插入到
神经网络
中,以得到与所选动作
的
状态近似。这是正确
的<
浏览 0
提问于2018-03-28
得票数 2
回答已采纳
1
回答
用ReLu函数进行反向传播
、
我在学习
神经网络
中
的
激活函数。具有简单线性函数
的
问题如下所述: ReLu函数
的
导数
也是常数。我
的
浏览 1
提问于2018-03-20
得票数 2
3
回答
什么是
神经网络
的
新纪元?
、
什么是
神经网络
中
的
纪元EPOCH用于更新
权重
。更改"Training data(Input data)"?
浏览 0
提问于2016-05-16
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
反向传播算法推导-全连接神经网络
神经网络基础
机器学习数学补脑汁(七)-最优化方法
如何自己实现简单的Google深度学习框架TensorFlow(二)?
神经网络如何学习的?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券