腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何为
每个
批次
隐含
不同
的
损失
函数
、
、
、
、
在得到this question
的
回复后,我意识到我有一个
不同
的
问题。 我希望根据我在训练步骤中通过
的
批次
来获得
不同
的
目标组件。假设我
的
批量大小是1,并且我将
每个
训练数据与不属于训练步骤
的
两个支持向量相关联。因此,我需要找出当前正在处理输入向量
的
哪一部分。feature中
的
第一个点。output_layer = Dense(2)(hidden_layer) mo
浏览 12
提问于2021-09-03
得票数 2
1
回答
在Keras中自定义减少
每个
批次
的
损失
、
、
、
我有一个自定义
的
损失
函数
,它为
批次
中
的
每个
样本返回一个数字(因此,长度=
批次
大小
的
向量)。我如何还可以指定自定义
的
减少方法,以将这些样本
损失
聚合为整个
批次
的
单个
损失
?在自定义
损失
函数
中包含此减少,并让此
函数
仅返回单个标量而不是
损失
向量,这是可以接受
的
吗?
浏览 28
提问于2021-10-14
得票数 0
2
回答
如何在多类图像分类中获得权值图
、
、
、
、
我训练
的
网络给了我很好
的
预测,但无法分离接触
的
对象,这就是为什么我想使用具有"weights"参数
的
softmax_cross_entropy
损失
函数
。知道我
的
y_true形状是(batch-size,128,128,3),我如何计算这些权重?
浏览 0
提问于2019-04-18
得票数 2
1
回答
损失
在迭代中不断增加
、
、
、
我只是对以下几点有点困惑:我正在训练一个神经网络,并让它打印出
损失
。我正在训练它超过4次迭代,只是为了尝试它,并使用批处理。我通常认为
损失
函数
是抛物线,
损失
将减少到一个最小点,然后再次增加。但随着迭代
的
进行,我
的
损失
会不断增加。 例如,假设
每个
迭代中有100个
批次
。在迭代0中,
损失
开始于26.3点(
批次
0),并上升到1500.7 (
批次
100)。我正在遵循spacy (https:
浏览 23
提问于2020-01-22
得票数 0
回答已采纳
4
回答
Keras model.evaluate()和model.predict()之间有什么区别?
、
、
、
、
为什么这两个价值观是
不同
的
?
浏览 7
提问于2017-06-10
得票数 53
回答已采纳
1
回答
Keras :使用生成器输出训练集
批次
和目标,但也包括不用于训练
的
辅助数据
、
然而,
每个
数据样本都是标准化
的
(/maxVal),我需要在
损失
函数
之前对其进行反标准化/反标准化。我不知道如何从生成器中同时输出这些辅助数据作为一批(X,Y)?
浏览 0
提问于2020-03-05
得票数 0
1
回答
数据并行性对训练结果
的
影响
、
、
、
、
一种解决方案是
每个
GPU运行一个模型,
每个
GPU都有自己
的
数据批,并在每次训练迭代之后组合它们
的
权重。换句话说,“数据并行”。例如,如果我使用两个GPU,与它们并行训练,然后组合它们
的
权重,那么与在一个GPU上进行这两个数据批
的
训练相比,产生
的
权重不应该是
不同
的
吗?因为两个GPU具有相同
的
输入权重,而单个GPU为第二批修改了权重。 这种差异仅仅是边际
的
,因此与多次迭代后
的
最终结果无
浏览 4
提问于2016-11-17
得票数 3
回答已采纳
1
回答
Tensorflow Keras保持每一批
的
损失
、
、
我在寻找构建keras模型架构
的
最佳实践
的
建议/示例。 我一直在摸索Model()子类和
函数
模型
的
各种迭代,但没有能够连接所有的点。模型应该有自定义指标和相关
的
损失
,其中-by:在训练期间,指标是按
批次
计算
的
,在
每个
时期结束时,最终指标/
损失
是根据
批次
计算
的
平均值计算
的
。在我看来,除了一个平均
每个
批次
结果<e
浏览 27
提问于2020-12-21
得票数 2
回答已采纳
1
回答
keras loss是否必须每批输出一个标量,或者整个
批次
输出一个标量?
、
、
、
、
我在中读到,keras自定义
损失
函数
必须为
每个
批处理项返回一个标量。谢谢!
浏览 0
提问于2018-08-30
得票数 5
回答已采纳
1
回答
用于重放学习
的
train_on_batch自定义丢失fnc
、
、
、
、
学习者,
如
您所见,
损失
是两个mse
的
加权和,分别为新样本和重放样本计算。,这意味着每当我想训练一个批时,我想分离新
的
和重放数据点,并计算整个批
的
标量
损失
。 如何在Keras中实现此丢失
函数
并与train_on_batch一起使用?Keras
的
train_on_batch方法似乎分别用
损失
函数
计算小批中
每
浏览 7
提问于2021-01-04
得票数 0
1
回答
Keras:为什么丢失
函数
必须每批返回一个标量,而不是只返回一个标量?
、
我用Keras编写了一个自定义
的
丢失
函数
,只是被以下内容绊倒了:我关心
的
是整个
批次
的
累计
损失
,而不是
每个
项目的
损失
,不是吗?
浏览 3
提问于2017-03-20
得票数 2
回答已采纳
2
回答
Keras训练过程中
损失
的
移动平均
、
、
、
、
当我
损失
和迭代次数时,在每一个时代之后,
损失
都会有一个显著
的
跳跃。实际上,
每个
迷你
批次
的
损失
应该各不相同,但是Keras计算
的
是小批
的
移动平均
损失
,这就是为什么我们获得了一条平滑
的
曲线而不是任意
的
曲线。移动平均线
的
阵列在每一个时代之后都会被重置,因此我们可以观察到
损失
的
跳跃。 我想删除移动平均
的
功能,相反,我想
浏览 4
提问于2022-04-29
得票数 1
回答已采纳
1
回答
损失
值是基于批处理数据还是基于整个数据?
、
、
谢谢你对这件事
的
关注。我有个问题要问你。 非常感谢!
浏览 1
提问于2017-12-04
得票数 1
2
回答
使用TensorFlow进行成对距离计算
、
、
我试图影响这篇文章:具体地说,就是第2节中
的
等式(3)。在找了很长一段时间后,我仍然不能弄清楚以下几点: 1)如何将
批次
分为正对(即相同
的
标签)和负对。因为张量是不可迭代
的
,所以我不知道如何得到哪个样本有哪个标
浏览 0
提问于2016-05-27
得票数 14
回答已采纳
1
回答
训练神经网络:
批次
大小对Nan影响
的
数学原因
、
、
我使用谷歌预先培训
的
和替代
的
最后一层分类。在训练中,我遇到了很多问题,我
的
交叉熵
损失
变成了nan.After尝试
不同
的
东西(降低学习率,检查数据等)。结果发现,训练
批次
大小过高。把培训
批次
从100件减少到60件,解决了这个问题。你能给出一个解释为什么太大
的
批次
大小导致这个问题与交叉熵
损失
函数
?此外,是否有一种方法可以克服这一问题,以处理更高
的
批处理大小(有一篇论文
浏览 0
提问于2018-03-01
得票数 3
2
回答
基于tf.GradientTape
的
预训练模型迁移学习不能收敛
、
、
、
我想用keras
的
预训练模型进行迁移学习from tensorflow import keras 使用keras编译/拟合
函数
进行训练可以收敛keras.losses.SparseCategoricalCrossentropy()
浏览 0
提问于2019-07-30
得票数 1
3
回答
批次
大小应该在推断时起作用吗?
、
我在训练一个模特 由于有7个分布均匀
的
类,随机押注分类
的
准确率为14 %(1/7约为14 %)。奇怪
的
是,它只在
批次
大小为2
的
情况下学习,16、32或64
的
批处理大小根本不学习。现在更奇怪
的
是,如果我拿起训练过
的
网
的
检查点(准确率40 %,训练
的
批次
为2
浏览 2
提问于2016-11-08
得票数 3
1
回答
如何在PyTorch中实现CCC损耗功能?
、
如
何为
PyTorch编写自定义丢失
函数
(在本例中为PyTorch),该
函数
的
行为与其他
损失
类似,
如
backwards()
浏览 28
提问于2022-06-25
得票数 0
回答已采纳
1
回答
使用keras或tensorflow训练具有一个输出
的
cnn,
每个
数据集具有两个对应
的
损失
函数
、
、
、
、
我正在尝试训练一个具有两个数据集
的
cnn。我希望能够在
每个
批次
中提供来自第一个数据集
的
一些数据和来自第二个数据集
的
一些数据,并且
每个
数据集具有
不同
的
相应
损失
函数
。我读过一些文章,如果神经网络有两个头,这是可能
的
,但我不确定如何在同一个神经网络上用一个输出做两个
损失
的
两个数据集。如果有一些现有的例子,我也会对使用pytorch持开放态度。
浏览 1
提问于2019-06-26
得票数 0
2
回答
喀拉斯地区单个时期
的
地块
损失
演化
、
、
、
Keras是否有一个内置
的
方法来输出(以及后来
的
绘图)在单个时代
的
训练过程中
的
损失
演变? 通常使用
函数
keras.callbacks.History()
的
方法可以输出
每个
时期
的
损失
。然而,在我
的
例子中,训练集相当大,因此我要将一个时代传递给NN。既然我想画出训练过程中训练(和开发)
损失
的
演变过程,有什么方法可以做到吗?我目前正在解决这个问题,方法是将训练集划分成<
浏览 0
提问于2018-09-06
得票数 8
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
损失函数的不同会对神经网络带来什么影响?
“山外有山比山高”-为什么叫深度学习?
自编码器是什么?有什么用?这里有一份入门指南
享学课堂谈论文-可视化神经网络的损失函数
马里兰大学论文:可视化神经网络的损失函数
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券