腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9017)
视频
沙龙
5
回答
如
何在
keras
中
获取
批次
内
每个
样本
的
损失
?
keras
如何获得
批次
内
每个
样品
的
损失
?
Keras
似乎没有提供任何满足需求
的
功能。
浏览 53
提问于2019-07-18
得票数 8
1
回答
用于重放学习
的
train_on_batch自定义丢失fnc
tensorflow
、
keras
、
neural-network
、
loss-function
、
replay
学习者,
如
您所见,
损失
是两个mse
的
加权和,分别为新
样本
和重放
样本
计算。,这意味着每当我想训练一个批时,我想分离新
的
和重放数据点,并计算整个批
的
标量
损失
。 如
何在
Keras
中
实现此丢失函数并与train_on_batch一起使用?
Keras
的
train_on
浏览 7
提问于2021-01-04
得票数 0
1
回答
在
Keras
中
自定义减少
每个
批次
的
损失
python
、
tensorflow
、
keras
、
loss-function
我在Python
中
为tensorflow使用
keras
。我有一个自定义
的
损失
函数,它为
批次
中
的
每个
样本
返回一个数字(因此,长度=
批次
大小
的
向量)。我如何还可以指定自定义
的
减少方法,以将这些
样本
损失
聚合为整个
批次
的
单个
损失
?在自定义
损失
函数
中
包含此减少,并让此
浏览 28
提问于2021-10-14
得票数 0
1
回答
keras
loss是否必须每批输出一个标量,或者整个
批次
输出一个标量?
python
、
tensorflow
、
neural-network
、
keras
、
loss-function
我在
中
读到,
keras
自定义
损失
函数必须为
每个
批处理项返回一个标量。谢谢!
浏览 0
提问于2018-08-30
得票数 5
回答已采纳
1
回答
在第一阶段结束之前,培训和验证
损失
不应该是近似的吗?
machine-learning
、
cross-validation
、
training
、
loss-function
我脑子里有个急迫
的
问题,到处都找不到答案。在训练期间,至少在
Keras
中
,训练
损失
是在当前批中计算
的
,因此可以更新权重。因此,至少在第一个时期,每一批
损失
都是在模型实际从那个特定
的
时期学习之前计算出来
的
。考虑到这一点,第一个阶段
的
验证
损失
不应该有点接近于第一个阶段
的
训练
损失
,因为两者都是根据梯度下降算法看不到
的
例子计算
的
吗?到目前为止,我建立<e
浏览 0
提问于2020-04-23
得票数 1
3
回答
在MSE
损失
函数
中
,n代表什么?
machine-learning
、
neural-network
、
loss-function
、
mse
神经网络
损失
函数-均方误差:关于“n”表示什么
的
问题让我们来看看一个有10个神经元
的
输出层。1 , 0 , 0 , 0 , 0 , 0 , 0 , 0 , 0 ]Loss = (1/10)*sum((output_layer -我认为唯一
的
方法是将n定义为输出
浏览 0
提问于2021-05-30
得票数 1
1
回答
在批处理梯度下降和SGD
中
如何处理权重更新?
machine-learning
、
gradient-descent
我目前
的
理解是,在SGD
中
,在
每个
数据
样本
之后,
损失
被用来更新
每个
权重。例句:有1000个
样本
和一个有10个权重
的
网络,
每个
时代将有10,000个个人权重更新。在渐变下降和批处理渐变下降
中
,如
何在
多个数据
样本
上延迟这些更新?在
每个
样本
中
存储了什么,可以在
批次
结束时应用?每批样品
的
损失<
浏览 0
提问于2019-09-25
得票数 4
回答已采纳
1
回答
tensorflow打印
的
损失
是批量/
样本
损失
还是运行平均
损失
?
tensorflow
、
machine-learning
、
keras
、
loss-function
当我训练tensorflow模型时,它通常会在每次迭代
中
输出类似于下面一行
的
信息 INFO:tensorflow:loss = 1.9433185, step = 11 (0.300 sec) 打印
的
损失
是模型当前看到
的
批次
的
损失
,还是所有先前训练
批次
的
运行平均
损失
?如果我使用
批次
大小为1
的
批次
,即每批只有一个训练
样本
,那么打印
浏览 57
提问于2021-08-23
得票数 1
4
回答
批
内
每个
样本
的
Keras
损失
keras
如
何在
训练过程
中
获得
样本
损失
而不是全部
损失
?
损失
历史是可用
的
,它给出了总批量
损失
,但它不提供
损失
的
个别
样本
。如果可能的话,我想要这样
的
东西:这样
的
东西可用吗?
浏览 4
提问于2016-10-07
得票数 3
回答已采纳
4
回答
Keras
model.evaluate()和model.predict()之间有什么区别?
machine-learning
、
neural-network
、
deep-learning
、
keras
、
image-segmentation
我用
Keras
生物医学图像分割来分割脑细胞。我用了model.evaluate(),它给了我骰子系数: 0.916。为什么这两个价值观是不同
的
?
浏览 7
提问于2017-06-10
得票数 53
回答已采纳
1
回答
Keras
内置
的
MSE
损失
在2D数据上返回2D矩阵,而不是标量
损失
。
python
、
tensorflow
、
keras
、
autoencoder
、
loss-function
我试图评估单个2D测试
样本
的
MSE
损失
,在
Keras
中使用一个自动编码器(AE),一旦模型被训练,我很惊讶当我调用
Keras
内置函数来
获取
单个
样本
的
丢失时,它会返回2D张量。这意味着
损失
函数计算
每个
样本
的
每个
像素
损失
,而不是
每个
样本
计算一个
损失
(?)。为了非常清楚,我期望MSE将所有像素上计算
浏览 0
提问于2019-08-19
得票数 3
回答已采纳
1
回答
进行类不平衡正则化
的
正确位置(数据级或
批次
级)
python
、
machine-learning
、
pytorch
正
样本
有10000个
样本
,负
样本
有90000个
样本
。我在训练
的
时候用了一批100。当计算BinaryCrossEntropyLoss (以pytorch为单位)时,可以提供
每个
批次
元素
的
正则化权重。我
的
问题是:要计算一般类别权重,更有意义
的
是在开始时计算1次(因此1/(10000/(100000)对于正例),并用这个值衡量
每个
样本
的
损失
浏览 25
提问于2019-10-04
得票数 0
1
回答
使用y_pred y_true
的
不同属性最大化自定义丢失。
python
、
tensorflow
、
keras
我有一个特别的问题,我没有找到关于堆栈溢出
的
答案。我在用CNN和图像进行二值分类。对于
每个
图像,我在csv文件中都有与它们相关联
的
信息。我
的
问题是: 是否可以将更多
的
参数(
如
attribute_1和attribute_2向量)传递给customLoss?是否可能知道我们在哪一批中计算
损失
函数?(例如:100个
样本
,
批次
大小为10,将有10批计算
损失
浏览 0
提问于2019-10-28
得票数 1
1
回答
Keras
访问自定义丢失函数
中
的
单个值
python
、
tensorflow
、
keras
、
loss
我想实现以下
的
损失
功能: val += factor*scipy_func(y_pred[idx])是否有任何方法将此函数实现为
Keras
损失
函数?
浏览 0
提问于2018-08-08
得票数 2
回答已采纳
5
回答
在
Keras
‘steps_per_epoch
的
fit_generator
中
设置什么?
keras
、
epochs
在
Keras
中
,我正在复制一篇我知道epoch和batch_size值
的
论文
的
工作。由于数据集相当大,所以我使用
的
是fit_generator。我想知道如
何在
steps_per_epoch
中
设置给定
的
epoch值和batch_size。有标准
的
方法吗?
浏览 0
提问于2019-03-16
得票数 35
2
回答
如
何在
Keras
中
同时获得一批数据
的
损失
和模型输出?
tensorflow
、
caffe
、
keras
我正在使用
Keras
w/ Tensorflow后端来训练NN。为此,我目前再次调用predict来
获取
模型输出,但这是多余
的
,因为train_on_batch已经“向前”传递了输入批处理。在Caffe
中
,当图像前馈时,中间层输出仍然存储在net.blobs
中
,但在
Keras
浏览 0
提问于2016-11-17
得票数 1
6
回答
Keras
中
的
自定义
损失
函数应该返回该批
的
单个
损失
值,还是返回培训批
中
每个
样本
的
损失
数组?
tensorflow
、
machine-learning
、
keras
、
tensorflow2.0
、
loss-function
我正在学习tensorflow(2.3)
中
的
keras
。但是上面的函数给出了整个
批次
的
一个值。我读了类
的
源代码。()方法来获得训练批
中
每个
样本
的
损失
数组。然后对这些
损失
进行有效平均,得到整个
批次
的
单个
损失
浏览 8
提问于2020-08-13
得票数 24
回答已采纳
2
回答
手动和自动验证
损失
是不同
的
。
python-3.x
、
validation
、
tensorflow
、
keras
、
neural-network
我使用Tensorflow 1.14.0和
Keras
2.2.4。import optimizersfrom tensorflow.
keras
.layers import Input产出如下:Last Val Loss (Manual) = 89.90268535029907 正如我们所看到
的
,手动和自动验证
损失
约为0.02。但
浏览 4
提问于2019-11-27
得票数 1
回答已采纳
1
回答
Keras
课程学习- change shuffle方法
keras
、
deep-learning
、
shuffle
我想改变我们在
Keras
中
混洗训练数据
的
方式。传统上,我们在
每个
时期对
样本
进行混洗,然后批量处理并拟合模型。现在我想先对
样本
进行批量处理,然后对这些“
批次
”进行混洗(
每个
批次
中
的
所有
样本
都不能进行混洗)。原因是我根据标准(课程学习)订购了所有
样本
,我希望保留这样
的
顺序。你知道我该怎么做吗?
浏览 16
提问于2020-07-19
得票数 0
2
回答
使用TensorFlow进行成对距离计算
python
、
tensorflow
、
distance
我试图影响这篇文章:具体地说,就是第2节
中
的
等式(3)。在找了很长一段时间后,我仍然不能弄清楚以下几点: 1)如何将
批次
分为正对(即相同
的
标签)和负对。因为张量是不可迭代<e
浏览 0
提问于2016-05-27
得票数 14
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
手把手教你用keras-CNN网络识别cifar10
RNN循环神经网络、LSTM长短期记忆网络实现时间序列长期利率预测
攻击 AI 模型之 FGSM 算法
对抗样本的基本原理
攻击AI模型之FGSM算法
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券