腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何添加tensorflow损失函数?
tensorflow
、
keras
、
loss-function
我不能添加这两个损失如下 real_
loss
= tf.losses.BinaryCrossentropy(tf.ones_like(train_images[0]),train_images[0])fake_
loss
= tf.losses.BinaryCrossentropy(tf.zeros_like(train_images[0]),train_images[0]) fake_
loss
+real_
loss
浏览 16
提问于2021-09-28
得票数 1
回答已采纳
3
回答
如何在类中包含函数属性?
python
、
python-3.x
class c(): self.foo.
loss
1 = 20
l1
= prob.foo.
loss
1print(
l1
)AttributeError:'function‘对象没有属性'
loss
1'
浏览 4
提问于2020-02-13
得票数 1
回答已采纳
1
回答
在多输出回归中增加均方误差代价函数的约束
python
、
optimization
、
machine-learning
、
keras
、
mean-square-error
Dropout(0.2))#rmsprop = rmsprop(lr=0.0, decay=0.0) Model.compile(
loss
浏览 2
提问于2017-01-31
得票数 0
1
回答
Pytorch重建损失
pytorch
mse = nn.L1
Loss
().cuda()N是批处理大小。我的
l1
损失是否会在N镜像上求和?
浏览 2
提问于2018-12-02
得票数 0
2
回答
keras是如何处理多重损失的?
deep-learning
、
keras
、
backpropagation
、
loss-function
如果我有类似这样的东西:l2 = 0.3final_
loss
=
l1
*
loss
1 + l2*
loss
2 另外,在培训过程中,这意味着什么?
loss
浏览 1
提问于2018-03-21
得票数 63
回答已采纳
1
回答
具有
L1
正则性的logistic回归模型
python
、
pytorch
、
logistic-regression
、
regularized
我试图将
L1
正则化应用于一个物流模型。 super().= model_b.training_step(batch)['Training_
loss
']
loss
_Lasso =
loss
+ 0.5 *
L1
#
L1
reg
浏览 2
提问于2021-01-05
得票数 1
回答已采纳
1
回答
Logistic损失与交叉熵损失的差异
machine-learning
、
logistic-regression
、
loss-function
、
cross-entropy
下面是python代码:from math import log return -log(1-yp) if y==0 else -log(yp) return log(1+exp(-y*yp))/log(2)
l1
= cross_en
浏览 0
提问于2020-03-03
得票数 0
4
回答
使用GridSearchCV时会发生值错误
python
、
classification
、
svm
我使用GridSearchCV进行分类,我的代码是: '
loss
':["squared_hinge","hinge"], } clf = GridSearchCV(Line
浏览 9
提问于2015-04-27
得票数 6
1
回答
使用GridSearchCV时跳过禁止的参数组合
python
、
optimization
、
scikit-learn
、
grid-search
、
svc
特别是,dual、penalty和
loss
参数之间存在相互排斥的组合:from sklearn import svm, datasetsparameters = {'dual':[True, False], 'penalty' : ['
l1
', 'l2'], \ '<e
浏览 10
提问于2017-03-24
得票数 17
回答已采纳
1
回答
在Keras中将
loss
_weights在model.compile中设置为零,可以删除损失函数项吗?
keras
、
keras-layer
、
tf.keras
我的总损失函数有三个条件:当我运行
loss
_weights{"λ1":1, "λ2":1, "λ2":1}时,所有的λ都是由设置的。现在我要删除
L1
术语。 如果我在
loss
_weights中更改
loss
_weights,而不是删除模型中
L1
项的输出,可以吗?
浏览 0
提问于2019-07-20
得票数 0
回答已采纳
1
回答
在Tensorflow.keras 2.0中,当模型具有多个输出时,如何为model.fit()定义一个灵活的损失函数?
python
、
keras
、
tensorflow2.0
、
tf.keras
=
loss
_fn, optimizer='sgd')时model.fit(x=train, y
浏览 0
提问于2019-11-05
得票数 3
1
回答
在TF 2.x中打印每个时期的损失值
tensorflow
、
tensorflow2.0
我在TF2.3中编写了自定义损失函数,其中损失由几个子损失组成,因为我想跟踪子损失,所以我使用tf.print打印了它们 def custom_
loss
_envelop(model_inputs,model, num_bound,model_outputs,lambda_, ener):
l1
= ....tf.print("
l1
:",tf.math.round(
l1
* 100)/100,&q
浏览 27
提问于2021-01-31
得票数 0
1
回答
试图理解PyTorch SmoothL1
Loss
实现
python
、
machine-learning
、
pytorch
根据SmoothL1
Loss
的文档,它简单地说,如果预测的绝对值减去地面真相小于β,我们使用最上面的方程。否则,我们就用底部的那个。请看的方程式。
loss
+= (abs(x-y) - 0.5 * beta).mean() output =
loss
(predictions, tar
浏览 9
提问于2020-12-17
得票数 1
回答已采纳
1
回答
矢量化
L1
损耗?
pytorch
、
loss-function
我读了一篇论文,它提到他们正在使用矢量化的
L1
丢失,这在编码方面意味着什么?与正常的
L1
损失有什么不同吗?从文件中看,这是一个公式:看看Lf,如果我要对它进行编码,它不只是看起来像常规的
L1
丢失吗?import torch.nn.functional as F
loss
_f.backward() 如果是这样的话,为什么要特别提到矢量化
L1
损失?
浏览 5
提问于2022-04-20
得票数 0
1
回答
ValueError:没有为任何可变自定义损失提供渐变
machine-learning
、
deep-learning
tf.keras.layers.Concatenate()([y,y2,y_pseudo_lab]) archi.compile(
loss
=custom_
loss
(0.5), optimizer='adam',metrics=['accuracy']) train_list_ds, validation_data
浏览 15
提问于2020-12-29
得票数 0
回答已采纳
2
回答
如何定义Tensorflow / Keras中以字典形式包含多个标签的数据集的损失?
python
、
tensorflow
、
machine-learning
、
keras
、
deep-learning
tf.data.Dataset.from_tensor_slices(np.random.randn(5, 5)) ds_y = tf.data.Dataset.from_tensor_slices({'
l1
= tf.keras.layers.Dense(5, activation='softmax')(x) #
loss</em
浏览 2
提问于2020-10-08
得票数 0
回答已采纳
1
回答
稍微调整一下Pytorch中加权
L1
损失的
L1
损失,梯度计算还能正常工作吗?
python
、
pytorch
我在Pytorch中实现了一个神经网络,我想使用加权的
L1
损失函数来训练网络。具有常规
L1
损失的实现包含每个时期的以下代码: optimiser.zero_grad()_,forecast = net(torch.tensor(feature, dtype=torch.float).to(DEVICE))
loss
= F.l1_
loss
(forecast, torch.tensor(target,dtype=torch.float).to(DEVICE),reduction=
浏览 46
提问于2019-10-02
得票数 2
回答已采纳
1
回答
PyTorch中的简单
L1
损失
python
、
machine-learning
、
deep-learning
、
pytorch
我想在神经网络中计算
L1
损失,我在上遇到了这个例子,但代码中有一些错误。reg_
loss
= 0 reg_
loss
+= l1_crit(param)
loss
+= factor * reg_
loss
loss</em
浏览 0
提问于2020-06-16
得票数 1
1
回答
模型初始化后激活的正则化
python
、
keras
、
keras-layer
、
tf.keras
、
regularized
): elif isinstance(layer, layers.Conv2D) or isinstance(layer, layers.Dense): if hasattr(layer, 'bias_regularizer&
浏览 0
提问于2019-09-16
得票数 0
回答已采纳
1
回答
Keras损失似乎是错误的-加权总和是错误的
python
、
tensorflow
、
keras
, gpus=2, cpu_merge=True, cpu_relocation=False)
loss
_weights= {'parts': 1.}
loss
_weights=
loss
_weightsargs.epochs,
浏览 21
提问于2019-09-12
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
斯坦福CV课程3:Loss Functions and Optimization
CS231n-Loss Functions and Optimization(2)
tensorflow训练模型loss不变化的可能原因
专家观点:L1正则稀疏?
何恺明大神的“Focal Loss”,如何更好地理解?
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券