腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在TF 2.x中打印每个时期的
损失
值
、
我在TF2.3中编写了自定义
损失
函数
,其中
损失
由几个子
损失
组成,因为我想跟踪子
损失
,所以我使用tf.print打印了它们 def custom_loss_envelop(model_inputs,model, num_bound,model_outputs,lambda_, ener):
l1
= ....tf.print("
l1
:",tf.math.round(<em
浏览 27
提问于2021-01-31
得票数 0
1
回答
svm.LinearSVC中的“惩罚”论点需要澄清
、
、
关于这个,被接受的答案解释了支持向量机正规化问题中的惩罚和
损失
。但是在结尾处使用了“L1-
损失
”,“L2-
损失
”这两个词。据我所知,正则化问题中的目标
函数
是
损失
函数
之和,例如铰链
损失
:刑罚条款如下:通过说“
l1
铰链
损失
”,我是否可以将其解释为适用于
损失
和处罚条件的论证“惩罚”中规定的
L1
规范?在以下
浏览 1
提问于2021-04-23
得票数 1
回答已采纳
1
回答
正规化:在哪里使用惩罚成本
函数
?
、
L1
正则化在代价
函数
中增加了一个惩罚项,以限制权重的大小。我是否正确理解这个惩罚成本
函数
只用于优化步骤,而不是计算模型的
损失
?例如,为了在验证集中计算模型的
损失
,需要使用非惩罚
损失
函数
?
浏览 0
提问于2018-10-23
得票数 1
回答已采纳
1
回答
如何为Tensorflow中指定的位置赋值?
、
、
我想要实现一个SSIM
损失
函数
,因为边界被卷积中止,我想保存边界,并计算边界像素的
L1
损失
。密码是从这里学来的。例如,我们有img1和img2大小的批处理(32,32,32,1和window_size的
L1
11 ),结果ssim映射将是批处理,22,22,1,
L1
映射批处理,32,32,32,1,1如何分配到
L1
浏览 3
提问于2017-06-20
得票数 0
1
回答
为什么神经网络
损失
函数
总是正数
、
当考察神经网络的大部分
损失
函数
,如mse、mae、
L1
、L2时,
损失
总是被记录为一个正值。我不明白的是为什么?
损失
函数
不应该有正或负值,以便根据需要提高或降低网络的权重?
浏览 0
提问于2019-02-04
得票数 3
1
回答
如何在Keras或Tensorflow中将
L1
范数添加到
损失
函数
中?
、
、
、
、
我试图重现一篇深度学习论文的实验结果, 我注意到
损失
函数
,类别交叉熵具有
L1
正则化,可以在下面看到, ? 那么,如何计算模型复杂度并在Keras/Tensorflow中添加正确的自定义
损失
函数
呢?
浏览 38
提问于2019-10-15
得票数 1
回答已采纳
1
回答
稍微调整一下Pytorch中加权
L1
损失
的
L1
损失
,梯度计算还能正常工作吗?
、
我在Pytorch中实现了一个神经网络,我想使用加权的
L1
损失
函数
来训练网络。具有常规
L1
损失
的实现包含每个时期的以下代码: optimiser.zero_grad()_,forecast = net(torch.tensor(featureto(DEVICE),reduction='mean')params.append(net.parameters()) optimiser.step() 现在我想用加权<e
浏览 46
提问于2019-10-02
得票数 2
回答已采纳
1
回答
在使用完全卷积网络的语义分割中,为什么交叉熵
损失
比
L1
或L2
损失
更受欢迎?
、
、
我正在训练一个具有编码器-解码器架构的完全卷积网络,用于图像分割任务,目前正在使用二进制交叉熵
损失
进行前景/背景预测。 我试图搜索和阅读关于为什么使用交叉熵
损失
而不是
L1
或L2
损失
的信息。交叉熵
损失
不能捕获图像的整体布局,而
L1
和L2考虑了整体图像重建。
浏览 2
提问于2019-09-10
得票数 0
1
回答
在两个图像轴上使用pytorch Autograd
给定一个返回图像X(由一个输入图像生成)的
函数
。我想计算x和y方向的导数。通常我会使用内核方法,但我想看看使用这个autodiff是否可行。我知道autodif是基于雅可比矩阵的,因为我的
函数
只有一个输入。它将只计算基于该变量的导数。因此,我预计它将无法进行这些方向导数。 这是真的吗?或者可以用另一种方式呢?
浏览 1
提问于2021-01-29
得票数 0
1
回答
Logistic
损失
与交叉熵
损失
的差异
、
、
、
我对二元分类场景中的逻辑
损失
和交叉熵
损失
感到困惑。根据维基百科(),物流
损失
的定义为:其中v=y*y_hat 来自维基百科(): return log(1+exp(-y*yp))/log(2) y, yp = 0, 0.3 # y= {0, 1} for cross_entr
浏览 0
提问于2020-03-03
得票数 0
1
回答
使用
l1
正则化之类的术语在Keras中实现自定义
损失
函数
、
、
、
、
我正在创建我自己的
损失
函数
(我想在Keras中急切执行时使用它)。我想给它加上一个类似于
l1
损失
函数
的术语。 这就是我现在使用的
损失
函数
。import keras.backend as K return K.mean(K.abs(y_pred-y_true)) 我的想法是在我的
损失
函数
中添加一个常数(y_temp),然后我想将其乘以作为可训练变量(以实现类似于
浏览 20
提问于2019-08-21
得票数 0
2
回答
Tensorflow LSTM正则化
、
我想知道如何在TensorFlow中的LSTM中实现
l1
或l2正则化?TF不提供LSTM的内部权重,所以我不确定如何计算范数并将其添加到
损失
中。目前,我的
损失
函数
仅为RMS。 的答案似乎还不够。
浏览 2
提问于2016-06-17
得票数 1
1
回答
在Keras中将loss_weights在model.compile中设置为零,可以删除
损失
函数
项吗?
、
、
我的总
损失
函数
有三个条件:当我运行loss_weights{"λ1":1, "λ2":1, "λ2":1}时,所有的λ都是由设置的。现在我要删除
L1
术语。 如果我在loss_weights中更改loss_weights,而不是删除模型中
L1
项的输出,可以吗?
浏览 0
提问于2019-07-20
得票数 0
回答已采纳
2
回答
tensorflow在训练期间没有改进
、
、
、
我的问题是:当训练
损失
函数
时,
损失
函数
不会减小。它会卡在60000个训练图像的数量上。bias = tf.Variable(tf.zeros([10])) print("Finally, the coeficients are: " , sess.run(tf.transpose(syn0))
浏览 23
提问于2018-02-15
得票数 0
回答已采纳
1
回答
滑雪: sklearn.linear_model.HuberRegressor对sklearn.linear_model.ElasticNet
、
、
我正在为我的回归模型试验不同的
损失
函数
。我注意到在滑雪板上有:对我来说,两者都使用
L1
和L2
损失
的组合。
浏览 0
提问于2019-09-18
得票数 0
1
回答
在Keras模型自定义丢失中如何访问张量内容
、
、
、
、
我想以alpha* L2(x, x_pred) + beta *
L1
(day_x, day_x_pred)的形式建立一个定制的
损失
。第二期
L1
损失
对时间的处罚(day_x为一天数)。因此,我的问题是如何从x and x_pred中提取第一个特性来计算
L1
(t_x, t_x_pred)。这是我目前的
损失
函数
: #with tf.compat.v1.Session() as sess: pr
浏览 4
提问于2020-05-26
得票数 2
回答已采纳
1
回答
正则化损耗--张量阵列的流- TRAINABLE_VARIABLES
我想在我的
损失
函数
中同时添加
L1
和L2正则化。在定义权重变量时,我选择要使用的正则化,但似乎只能选择一个。tf.GraphKeys.REGULARIZATION_LOSSES)当我试图手动获取
损失
时我对
l1
损失
的手工计算正确吗? 提前感谢
浏览 2
提问于2016-12-12
得票数 0
回答已采纳
1
回答
PyTorch中的简单
L1
损失
、
、
、
我想在神经网络中计算
L1
损失
,我在上遇到了这个例子,但代码中有一些错误。 这真的是如何在NN中计算
L1
损失
吗?还是有一种更简单的方法?只是检查是否有现有的
函数
可以做到这一点。
浏览 0
提问于2020-06-16
得票数 1
1
回答
U型放电筒模型输出nan用于MSE,而不输出
L1
?
当我使用
L1
丢失进行培训时,我没有收到任何错误,但是,对于使用MSE丢失的数据集,网络输出了tensornan…不能在5-10年代以后训练。我尝试过任意值为0.5和1的梯度裁剪,但都不起作用。
浏览 4
提问于2022-04-14
得票数 0
1
回答
打印所有
损失
函数
项tensorflow 2.0
、
、
、
、
我在定义一个定制的
损失
函数
。例如,让我们拿loss function =
L1
loss + L2 loss.当我做model.fit_generator(),总
损失
函数
是打印后的每一批。但我希望看到
L1
loss和L2 loss的单独值。我该怎么做?我想知道单个术语的价值,以了解它们的相对尺度。
浏览 1
提问于2019-12-11
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习漫谈:损失函数
transformer 模型的损失函数
DL笔记:Cost function 损失函数
如何选择合适的损失函数
到底该如何选择损失函数?
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券