腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用keras或tensorflow
训练
具有
一个输出
的
cnn,每个数据集
具有
两个
对应
的
损失
函数
、
、
、
、
我正在尝试
训练
一个
具有
两个
数据集
的
cnn。我希望能够在每个批次中提供来自第一个数据集
的
一些数据和来自第二个数据集
的
一些数据,并且每个数据集
具有
不同
的
相应
损失
函数
。我读过一些文章,如果神经
网络
有
两个
头,这是可能
的
,但我不确定
如何
在同一个神经
网络
上用一个输出做
两个
损失
的
两
浏览 1
提问于2019-06-26
得票数 0
1
回答
PyTorch
如何
在只有标量
损失
的
情况下
训练
神经
网络
?
、
、
、
假设我们有一个NN,我们想要
训练
它来预测输入中
的
3个值。我们有一组
训练
数据:目标呢?如果
pytorch
只计算一个标量作为
损失
函数
,它
如何
进行
训练
?为什么它无法计算与每个输出神经元相关
的
损失
?例如,如果x_train
的
答案是(20,32,0.12),我们不想更新与答案(25,37,0.12)相同<e
浏览 15
提问于2021-02-28
得票数 0
回答已采纳
2
回答
pytorch
的
交叉
损失
与keras
的
"categorical_crossentropy“有区别吗?
、
、
、
我正在尝试在keras中模仿
pytorch
神经
网络
。我确信我
的
keras版本
的
神经
网络
与
pytorch
中
的
非常接近,但在
训练
过程中,我看到
pytorch
网络
的
损失
值比keras
网络
的
损失
值要低得多。我想知道这是不是因为我没有正确复制keras中
的
pytorch
网络
,或者<em
浏览 555
提问于2020-04-26
得票数 3
回答已采纳
1
回答
Pytorch
:
如何
训练
具有
两个
损失
函数
的
网络
?
、
、
、
我想先预
训练
一个
具有
重构
损失
的
网络
,然后通过交叉
损失
对其进行微调。但似乎我必须在这
两个
阶段定义
两个
网络
。
如何
做到这一点?
浏览 291
提问于2020-08-14
得票数 0
2
回答
如何
将权值应用于Tensorflow中
的
乙状结肠交叉熵
损失
函数
?
、
训练
数据集包含
两个
类别A和B,相应地,我们在目标标签中表示为1和0。Out标签数据严重倾向于0类,这大约占数据
的
95%,而我们
的
类1仅占5%。在这种情况下,我们应该
如何
构建我们
的
损失
函数
?我发现Tensorflow有一个可以用于权重
的
函数
: weights作为
损失
系数。如果提供了标量,则
损失
将按给定值进行缩放。好吧,
浏览 1
提问于2018-04-13
得票数 3
回答已采纳
1
回答
使用
pytorch
的
均方对数误差
你好,我是
PyTorch
的
新手,我想在我
的
神经
网络
中使用均方对数误差作为
损失
函数
来
训练
我
的
DQN代理,但是我在
PyTorch
的
nn.functional中找不到MSLE,什么是实现它
的
最好方法?
浏览 27
提问于2021-05-22
得票数 1
回答已采纳
1
回答
梯度下降-在
损失
函数
中计算了多少值?
我有点搞不懂在神经
网络
训练
中
损失
函数
是
如何
计算
的
。有人说,在理论上,当使用网格搜索或蒙特卡罗方法时,我们可以计算所有可能
的
损失
函数
值。但显然,这需要太多
的
资源,并不是神经
网络
训练
的
好方法。📷 但是另一方面,在下面的
PyTorch
例子中,据说
损失
函数
是根据所有的预测值和实数来计算
的
。然后计算梯度
浏览 0
提问于2019-09-23
得票数 1
1
回答
如何
正确使用交叉熵
损失
对软件最大值进行分类?
、
、
、
、
我想
训练
一个多类别的分类器,用
Pytorch
。这让我很困惑。 如果
网络
有一个最终
的
线性层,
如何
推断每个类
的
概率?如果
网络
有最终
的
softm
浏览 2
提问于2020-12-22
得票数 3
回答已采纳
2
回答
放电筒中多重
损失
函数
的
优化
、
、
、
、
我在
PyTorch
中
训练
一个
具有
不同输出
的
模型,对于位置(米)、旋转(度)和速度,以及模型必须预测
的
布尔值为0或1,有四个不同
的
损失
。AFAIK,这里有两种方法来定义最终
损失
函数
:第二,确定每个
损失
的
定义系数,以优化最终
损失
。 那么,我
的
问题是,
如何
更好地权衡这些
损失
,
浏览 8
提问于2022-03-02
得票数 2
1
回答
稍微调整一下
Pytorch
中加权L1
损失
的
L1
损失
,梯度计算还能正常工作吗?
、
我在
Pytorch
中实现了一个神经
网络
,我想使用加权
的
L1
损失
函数
来
训练
网络
。
具有
常规L1
损失
的
实现包含每个时期
的
以下代码: optimiser.zero_grad()_,forecast = net(torch.tensor(featureDEVICE),reduction='mean')params.
浏览 46
提问于2019-10-02
得票数 2
回答已采纳
1
回答
如何
在
Pytorch
中实现JSD
损失
上限?
、
、
我正在尝试用
pytorch
来“复制”,而且我还是个新手。我现在关心
的
是复制L_G (等式)。7第3页),下面是我当前
的
代码: super(JSDLoss,self).但是,我怀疑这不是创建自定义
损失
的
方法。任何形式
的
帮助都是非常感谢
的
!提前感谢:)
浏览 4
提问于2017-12-13
得票数 3
1
回答
为
PyTorch
的
交叉熵
损失
添加权重参数会导致数据类型RuntimeError
我目前正在使用
PyTorch
来
训练
神经
网络
。我使用
的
数据集是一个
具有
大量0
的
二进制分类数据集。我决定尝试使用
PyTorch
的
交叉熵
损失
的
weight参数.通过sklearn.utils.class_weight.compute_class_weight计算权重,得到[0.58479532, 3.44827586当我将这个class_weights张量添加到
损失
的
weight参数中时
浏览 6
提问于2022-05-27
得票数 0
1
回答
如何
用
pytorch
评估和获得前馈神经
网络
的
精度
、
、
、
、
我开始使用
Pytorch
,目前正在做一个项目,我正在使用一个简单
的
前馈神经
网络
进行线性回归。问题是,我在
Pytorch
中找不到任何可以让我获得Keras或SKlearn中线性回归模型
的
准确性
的
东西。我知道我可以在
训练
过程中观察
损失
,或者我可以简单地获得测试
损失
,根据它我可以知道
损失
是否减少,但我希望使用Keras结构,在该结构中我可以获得
损失
值和精确值。Keras
的
方式看起来更清晰
浏览 16
提问于2019-10-06
得票数 1
2
回答
在
pytorch
中
的
神经
网络
中,将参数约束为-1、0或1
、
、
、
我希望将神经
网络
中中间层
的
参数限制为首选离散值:-1、0或1。其想法是添加一个自定义目标
函数
,如果参数采用任何其他值,该
函数
将增加
损失
。请注意,我希望约束特定层
的
参数,而不是所有层
的
参数。我
如何
在
pytorch
中实现它?我想将这个自定义
损失
添加到
训练
循环中
的
总
损失
中,如下所示: custom_loss = constrain_parameters_to_be_di
浏览 58
提问于2021-05-31
得票数 3
1
回答
Pytorch
负载模型
、
并且可以方便地加载预先
训练
好
的
模型,如VGG19。但我发现使用
pytorch
不是这样
的
,因为conv2d()不接受显式
的
内核,而是接受内核大小。所以我想知道,我们是否可以通过简单地将权重传递给像conv2d()这样
的
方法来重用VGG19中
的
权重。任何回复都将不胜感激。
浏览 4
提问于2017-09-18
得票数 1
1
回答
如何
计算序列
的
交叉熵
损失
、
、
我有一个序列延拓/预测任务(输入:一个类索引序列,输出:一个类索引序列),我使用
Pytorch
。我
的
神经
网络
返回一个形状张量(batch_size,sequence_length,numb_classes),其中条目是一个与
具有
这个索引
的
类是序列中
的
下一个类
的
概率成正比
的
数字。我在
训练
数据中
的
目标是形状
的
(batch_size,sequence_length) (只是真实预测
的</
浏览 2
提问于2022-05-02
得票数 -1
回答已采纳
1
回答
当使用交叉熵
函数
进行二值分类时,模型输出标量和二维向量之间存在较大差距
、
当我使用u-net进行
两个
类别的语义分割时,我在模型最后一层
的
输出分别设置为1个通道和2个通道。然后使用交叉熵
损失
来度量: BCEloss和CrossEntropyLoss。但两者之间
的
差距很大。前者
的
性能是正常
的
,但后者
的
准确率很低,召回率很高。我用了
pytorch
。
浏览 26
提问于2020-04-09
得票数 0
回答已采纳
1
回答
当指定"retain_graph=True“时,
PyTorch
的
loss.backward()是
如何
工作
的
?
、
、
、
我是
PyTorch
和对抗性
网络
的
新手。我试图从
PyTorch
文档和以前在
PyTorch
和StackOverflow论坛上
的
讨论中寻找答案,但我找不到任何有用
的
答案。我试着用发电机和鉴频器
训练
GAN,但我不明白整个过程是否有效。就我而言,我应该先
训练
生成器,然后更新鉴别器
的
权重(类似于)。我更新这
两个
模型
的
权重
的
代码是: # computing loss_g and
浏览 2
提问于2020-06-01
得票数 1
回答已采纳
1
回答
线性变换输出
的
损失
和用于
训练
的
基本事实
、
、
、
我在
pytorch
中有一个预测模型,它在特定
的
坐标系中获取输入并生成输出。在我
的
过程中,我将输出和地面实况转换到不同
的
坐标系(二维平移和旋转)。我现在可以计算
两个
坐标系中
的
损失
,它们
具有
相同
的
值(RMSE和NLL
损失
)。 在
训练
中使用哪个
损失
来运行loss.backward()很重要吗?
浏览 1
提问于2020-08-03
得票数 0
1
回答
具有
不平衡数据
的
二进制类
的
语义分割
损失
不收敛
、
、
、
、
我想分割只占据整个数据集
的
一小部分
的
对象(例如,ICDAR2015或CamVid中的人)。像素级正负样本
的
比例约为1:200。我
的
网络
的
主干是预先
训练
好
的
VGG16或ResNet50,可以在有12个类
的
CamVid数据集中很好地工作。然而,当我将这个
网络
微调为仅分割CamVid中的人时,
损失
将保持在0.31左右,即使使用真正小
的
学习率(如1e-5),
损失
也永远不会
浏览 29
提问于2017-12-25
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
训练深度学习神经网络的常用5个损失函数
如何选择合适的损失函数
如何选择合适的损失函数,请看……
如何根据训练/验证损失曲线诊断我们的CNN
损失函数的不同会对神经网络带来什么影响?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券