腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5058)
视频
沙龙
1
回答
Keras
从
多个
输出
的
多个
损失
中
寻找
最佳
损失
以
进行
反向
传播
、
、
我在
keras
中使用多
输出
模型来解决一个回归问题。例如,模型如下: model = Model(inp, [out1, out2, out3]) 我想要计算每个
输出
的
损失
,但基于每个
损失
,选择一个并仅通过它
反向
传播
,并使每个其他权重为0。这就像一种
损失
,在所有
损失
中找到最好
的
损失
和
输出
,并只
从
该
输出
中学习。 例如,out 1<e
浏览 13
提问于2019-02-26
得票数 1
1
回答
如何计算
损失
函数?
、
、
、
、
我希望你做得好,我想问一个关于神经网络
中
损失
函数
的
问题。我知道,对训练集中
的
每个数据点计算
损失
函数,然后根据是否使用批处理梯度下降(在所有数据点通过后
进行
反向
传播
)、小批处理梯度下降(批处理后
进行
反向
传播
)或随机梯度下降(在每个数据点之后
进行
反向
传播
)
进行
反向
传播
现在让我们来看看MSE
浏览 0
提问于2022-05-25
得票数 1
回答已采纳
1
回答
训练
多个
角点模型并组合
输出
以
确定
损失
、
、
、
我正试图预测一维行波(正方形、三角形和锯齿形)
的
未来状态,使用
Keras
的
深度学习设置。波在1024个数据点中被离散化。由于这为RNN提供了相当高
的
输入维数,所以使用卷积自编码装置将1024输入降为10维
的
低维潜伏空间。给出了RNN
的
5个前一时间步长
的
潜在输入来预测下一时间步长。我分别训练了自动编码器和RNN,取得了相当好
的
效果,但理想情况下可以改进。下面的图给出了我如何以解耦
的
方式训练模型
的
例子。我
的
浏览 0
提问于2018-12-10
得票数 1
1
回答
如何训练多
输出
深度学习模式?
、
、
、
、
我想我不懂多
输出
网络。 您可以看到这两个
输出
(aux_output和main_output)。
反向
传播
是如何工作
的
? 我
的
直觉是,模型做了两个
反向
传播
,每个
输出
一个。然
浏览 2
提问于2019-07-22
得票数 8
回答已采纳
2
回答
keras
是如何处理多重
损失
的
?
、
、
、
如果我有类似这样
的
东西:l2 = 0.3final_loss = l1*loss1 + l2*loss2 另外,在培训过程
中
,这意味着什么?loss2是否仅用于更新y2所在层
的
权重?或者它用于模型
的
所有层?
浏览 1
提问于2018-03-21
得票数 63
回答已采纳
1
回答
TensorFlow / PyTorch:外部测量
的
损耗梯度
、
、
、
、
我有一个系统,它由一个神经网络组成,它
的
输出
被输入到一个未知
的
非线性函数F
中
,例如一些硬件。其思想是将神经网络训练为未知非线性函数F
的
逆F^(-1),这意味着
损失
L是在F
的
输出
处计算
的
,但是由于F
的
梯度不知道,反
传播
不能直接用于计算梯度和更新NN权值。在计算TensorFlow或PyTorch
中
的
梯度时,是否可以使用没有直接连接到神经网络
的
<em
浏览 2
提问于2020-01-16
得票数 1
2
回答
在
多个
损失
核上训练具有单一
输出
的
模型
、
、
、
、
我正在使用
keras
构建一个图像分割模型,并希望在
多个
损失
函数上训练我
的
模型。我已经看到链接,但我正在为这种情况
寻找
一个更简单和直接
的
解决方案,因为我
的
损失
函数相当复杂。谁能告诉我如何在
keras
中
建立一个具有
多个
损失
的
单
输出
模型。
浏览 13
提问于2019-11-04
得票数 0
回答已采纳
1
回答
用于在
Keras
中
初始化LSTM单元状态
的
MLP
、
、
我们可以使用MLP
的
输出
作为LSTM网络
中
的
小区状态,并使用
反向
传播
来训练MLP吗?这类似于使用CNN & LSTM
的
图像字幕,其中CNN
的
输出
被展平并用作初始隐藏/单元状态,并训练堆叠网络,其中甚至CNN部分也通过
反向
传播
进行
更新。 我在
keras
中
尝试了一个架构来实现同样
的
效果。但是MLP
的</em
浏览 1
提问于2018-07-19
得票数 1
2
回答
Keras
如何处理
多个
输出
中
的
反向
传播
、
、
对于这样
的
网络架构:input1--->| CNN | -------|input3--->| CNN | --------| Aux_out
反向
传播
流程是如何
进行
的
我
的
意思是,有两个
反向
传播
步骤?或者来自Main_out
的</em
浏览 62
提问于2019-07-26
得票数 1
1
回答
LSTM:时间序列预测:多对一,多对多。
、
、
、
、
我试着用LSTM预测物体
的
轨迹。我脑海中有三种不同
的
训练和预测价值观
的
配置,我想知道解决这个问题
的
最佳
方法是什么(我也希望对这些方法有深刻
的
见解)。1)多对一(
损失
是单个值
的
最小均方)
损失
函数是预测值及其实数
的
最小均方误差(因此,对应于位置n+1
中
的
值)。在在线测试
浏览 0
提问于2020-03-27
得票数 3
1
回答
Keras
使用y_preds和y_true而不是X_train训练模型
、
我想使用model.fit方法在
Keras
中
训练我
的
模型。 据我所知,首先,它采用输入X_train,
进行
预测,然后将其与y_train
进行
比较,
以
计算
损失
和
反向
传播
。
浏览 2
提问于2018-03-30
得票数 0
1
回答
pytorch:第二批处理
的
loss.backward内存不足
、
我正在学习使用https://github.com/keon/seq2seq
的
seq2seq模型。我已经成功地运行了原始项目。然后,我想训练自己
的
翻译模型。 对于我自己
的
数据,下面的代码是OK
的
。optimizer.step() torch.cuda.empty_cache() 对于batch size = 16,上述代码对于第一批是OK
的
,对于第二批是在loss.backward中报告<
浏览 378
提问于2021-05-02
得票数 0
1
回答
Keras
:在优化具有
多个
输出
层
的
网络时,
损失
是如何评估
的
?
、
我在
Keras
中使用functional API来构建一个具有
多个
输出
层
的
神经网络模型。我想知道在优化过程
中
更新权重时(当做back-prop时)
损失
是如何评估
的
。假设使用相同
的
损失
函数,那么所有
输出
的
平均
损失
是用于最小化成本函数还是单独评估每个
输出
以
更新权重? 提前感谢!
浏览 0
提问于2017-04-29
得票数 3
1
回答
Caffe:如果两层
反向
支持梯度到相同
的
底部斑点,会发生什么?
、
、
、
、
我想知道,如果我有一个层生成一个底部斑点,并被两个后续层进一步消耗,这两个层都将在后向
传播
阶段生成一些梯度来填充bottom.diff。是否将两个梯度相加以形成最终
的
梯度?或者,他们
中
只有一个人能活下来?在我
的
理解
中
,咖啡层需要在填充一些计算出
的
梯度之前将bottom.diff设置为全零,对吗?memset会刷新另一层已经计算出
的
渐变吗?谢谢!
浏览 0
提问于2017-06-07
得票数 2
1
回答
时间
损失
、平均绝对误差和验证
损失
是机器学习时间序列天气预报
的
"nan“。
、
、
、
对于链接
中
给定
的
数据集,计算出
的
所有
损失
(即
损失
、平均绝对误差、验证
损失
、验证
的
平均绝对误差;后两个
损失
不是所有历元模型
的
损失
)都是非零
的
,而当我更改数据集时,所有
损失
值都是nan。与这里使用
的
数据集相比,我使用
的
数据集有大约一半
的
读数。我
的
数据集有
从
多个
位置(40
多
浏览 9
提问于2022-11-01
得票数 0
回答已采纳
2
回答
变分式自动编码器
从
译码器输入到编码器
输出
的
反向
传播
、
、
、
我试图深入了解VAE,通过自己来实现它,当将解码器输入层
的
损耗
反向
传播
到编码器
输出
层时会遇到困难。decoder_in = sigma * N(0,I) + mu 然后对解码器网络
进行
前向
传播
,计算MSE重构
损失
和
反向
传播
权值,并计算到译码器输入层
的
浏览 4
提问于2020-08-05
得票数 6
回答已采纳
1
回答
Caffe如何更新具有
多个
输出
分支
的
斑点
的
渐变?
、
、
、
、
Caffe支持多
损失
。然后,对于
反向
传播
阶段,一些斑点可能具有来自不同
损失
的
多个
梯度。Caffe如何处理这个斑点
的
渐变?
浏览 0
提问于2017-12-14
得票数 1
2
回答
class_weight与loss_weights在
Keras
中
的
差异
、
Keras
的
参数class_weight用于fit()函数,loss_weights用于compile()函数。
从
解释(文档)和我所理解
的
情况来看,两者似乎是相同
的
,因为它们被用来表示每个类
的
重要性。
浏览 0
提问于2019-12-11
得票数 5
2
回答
将一个列表作为loss_weights传递,它应该有每个模型
输出
的
一个条目。
Keras
告诉我,模型有一个
输出
,但我认为有更多
的
输出
。
、
、
、
、
我有一个多类分类问题
的
dataset df。我有一个巨大
的
阶级失衡。即grade_F和grade_G。,就像我们看到
的
一样。我有一个
输出
维数为7
的
神经网络。因此,我尝试了以下神经网络:from
keras
.layers import Dense, Dropout from
keras
.constraintslossWeights = df['grade'].v
浏览 3
提问于2019-09-17
得票数 0
回答已采纳
1
回答
当可能发生
多个
操作时,策略梯度是多少?
、
卡帕
的
例子只有上下两个动作,所以一个
输出
神经元就足够了(高activation=UP,低activation=DOWN)。我想把它扩展到
多个
动作,所以我相信我需要
输出
层上
的
softmax激活函数。但是,我不确定
输出
层
的
梯度应该是多少。如果我在监督学习环境中使用具有softmax激活
的
交叉熵
损失
函数,神经元
的
梯度就是:其中target[i] = 1用于所需
的</
浏览 6
提问于2017-05-10
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
无需深度学习框架,如何从零开始用Python构建神经网络
反向传播算法推导-卷积神经网络
深度学习中Dropout原理解析
《Deep Learning with Python》第三章 3.1 走进神经网络之神经网络剖析
如何在Python中从0到1构建自己的神经网络
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券