腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
CNN
模型
的
损失
不
收敛
、
、
、
、
transform=transform) train_loss.
浏览 43
提问于2020-04-25
得票数 0
2
回答
训练
损失
改善,但验证提前
收敛
、
、
、
、
我正在使用TensorFlow创建一个
CNN
,在培训时,我发现训练数据集仍在改进(即
损失
仍在减少),而测试/验证数据集已经
收敛
,不再改进。(学习曲线图附后)我
的
模型
学习曲线图:
浏览 2
提问于2021-01-03
得票数 0
回答已采纳
1
回答
为什么我
的
CNN
模型
过于适合,谁有更好
的
结果提示吗?
、
我正在训练一个
CNN
-多通道
模型
,并为稠密层设置下拉和权重约束。我使用两个输入,因为我试图用标题和摘要对文档进行分类。此外,由于原始数据集是不平衡
的
,所以我正在对过采样
的
数据集进行培训。我使用
的
是0.7,100个过滤器和3,4,5
的
圆锥内核。下面的图片是我
的
损失
。绿线是训练
损失
,灰色线是验证
损失
。有人能解释为什么我
的
验证
损失
第一次增加,以及为什么这两条线
不</e
浏览 2
提问于2020-12-15
得票数 0
1
回答
Tensorflow语义分割给出零
损失
、
、
、
我正在训练一个
模型
,用于从图像中分割机器打印
的
文本。图像可能还包含条形码和手写文本。对地面真实图像进行处理,使0表示机器打印,1表示其余图像。我使用
的
是5层
CNN
,最后输出2张地图。我
的
损失
计算如下: labels = tf.reshape当我训练
模型
时,对于这些图像,我得到
的
损失
为0,训练准
浏览 0
提问于2017-07-04
得票数 3
1
回答
低
损失
和相同预测等级
的
原因?
、
、
我正在为二进制分类训练一个
cNN
。我使用了128批大小,
损失
正在减少,准确度随着时间
的
推移而增加。最终精度达到0.99以上,
损失
小于0.3。但再过几个年代,该
模型
收敛
到了0.6,精度下降了0.5。对
模型
的
检验表明,它总是预测0.5。我用二元交叉熵作为
损失
函数。对于每一个时代,所有的数据点都会被洗牌。我用
的
是SGD,学习率是0.01。 我是否以较低
的
准确率,但相当好
的
损失</
浏览 0
提问于2018-03-01
得票数 0
回答已采纳
1
回答
通过过拟合小样本
的
特征选择
、
、
、
我使用基于
CNN
的
模型
来进行序列分类。因为训练整个数据集是非常昂贵
的
,而且我需要尝试大量
的
特性,所以我不可能通过完整
的
培训来选择特性。通常在训练前进行良好
的
心智检查,就是试着让
模型
过适合一小组训练样本,以确保
模型
至少能够记住一个小样本。借用这个想法,我
的
问题是,我能不能训练一小部分训练数据,并利用它
的
损失
曲线作为度量,来选择最佳
的
特征?每一次训练都是为了测试给定所
浏览 0
提问于2017-11-14
得票数 5
回答已采纳
1
回答
Conv-2
CNN
架构- CIFAR-10
、
我有CIFAR-10数据集
的
CNN
架构,如下所示:当我训练这个
模型
的
时候,训练和测试
的
准确性以及
损失
都有一个非常紧张
的
行为,不能很好
的
收敛
。定义
的
架构正确吗?在每个卷积层之后,我应该有一个最大池层吗?下表摘自彩票假说:
浏览 0
提问于2020-02-17
得票数 0
2
回答
CNN
中
损失
函数
的
初始值是否有经验法则?
、
、
我注意到,我
的
大多数成功训练
的
CNN
启动(即第一个时期)
损失
在1-2范围内。通常,这些是图像分类器,用于离散类(猫、狗、船等)或语义(像素级)分割。有时,无论是由于设计不善还是建筑误解,我都会在60年代看到最初
的
损失
;有一天,我开始
的
时候是200岁(但没有
收敛
)。 所以我
的
问题是:是否有一种启发,可以让我为我
的
初始
损失
值确定一个足球场
的
价值?如果是的话,我受过训练
的</em
浏览 0
提问于2017-05-16
得票数 0
回答已采纳
0
回答
在
CNN
上,快速
损失
收敛
意味着什么?
、
、
、
、
我正在两个不同
的
DL库(Caffe Tensorflow)中训练两个
CNN
(AlexNet E GoogLeNet)。网络由每个图书馆(和)
的
开发团队实施 我将原始Imagenet数据集减少到1个类别的1024张图像--但设置了1000个类别在网络上进行分类。所以我训练了
CNN
,不同
的
处理单元(CPU/GPU)和批处理大小,我观察到
损失
很快
收敛
到接近零(在大多数情况下在1个时期完成之前),如下图所示(Tensorflow上
的
Alexnet)
浏览 5
提问于2017-12-05
得票数 2
回答已采纳
3
回答
负重训练速度太慢
、
、
我正在从头开始写我自己
的
CNN
代码。虽然我得到了快速、
收敛
和令人满意
的
结果,但训练后
的
权重值变化很小(而成本/
损失
函数却以一种看似
收敛
的
方式迅速下降)。
浏览 0
提问于2019-02-18
得票数 2
1
回答
CNN
模型
的
损失
收敛
性和精度差
、
我使用TF构建了一个二进制分类器,它将16x16灰度图像分类为分布87-13
的
两个类中
的
一个。我遇到
的
问题是
模型
的
,这比随机
的
要好,但是我不能让它改进到更高
的
水平。在验证
模型
(1.1e7示例,87-13发行版)时,我无法实现。 更大
的
网络、不断变化
浏览 0
提问于2018-04-06
得票数 1
回答已采纳
2
回答
为什么在训练中
损失
曲线会有很大
的
跳跃(向上)?
、
、
我已经训练了两次完全相同
的
模型
(完全相同
的
训练数据集),但是结果是非常不同
的
,我对它们
的
损失
曲线
的
行为感到困惑。
浏览 6
提问于2019-10-30
得票数 3
1
回答
10折检验对测量过拟合有意义吗?
、
据我所知,如果1.
收敛
太快2.验证
损失
不断增加,那么
模型
肯定是过拟合
的
。 同样,据我所知,除非你使验证
损失
收敛
到与你
的
训练
损失
类似的趋势,否则没有办法解决这个问题,这样你就可以做更多
的
数据增强等。然而,我读过
的
许多论文都声称10倍是健壮性
的
标志,并表明该
模型
并不过度拟合。然而,当我重新创建这些实验时,我可以说,无论它们是否显示出稳健
的
准确性,它们都是过度拟合<em
浏览 42
提问于2019-03-21
得票数 0
2
回答
小
的
神经网络总是比大型
的
更快
收敛
吗?
、
、
、
根据您
的
经验,较小
的
CNN
模型
(较少
的
params)比大型
模型
的
收敛
速度更快吗? 当然,我会认为是的,因为需要优化
的
参数较少。然而,我正在训练一个定制
的
基于MobileNetV2 2
的
Unet (带有2.9k参数)用于图像分割,它比具有更多参数(5k参数)
的
模型
需要更长
的
时间来
收敛
。如果此
收敛
行为是意外
浏览 0
提问于2020-12-08
得票数 1
1
回答
在Tensorflow中,
损失
随Adam优化器
的
突然增加而增加
、
、
、
我用
CNN
做回归任务。我使用Tensorflow,优化器是Adam。该网络似乎完全
收敛
,直到一个点,
损失
突然增加,随着验证错误。以下是标签和权重
的
损失
图(对它们
的
和运行优化器) 我使用l2减肥来调整体重,也使用标签。我在训练数据上应用了一些随机性。我想了解这是如何发生
的
。希望你能帮我。
浏览 2
提问于2017-02-14
得票数 20
2
回答
Pytorch Adam优化器
的
笨拙行为?重启会更好吗?
、
、
、
我正试着用Pytorch训练
CNN
的
文本分类器。我像这样使用Adam优化器。optimizer = torch.optim.Adam(
CNN
_Text.parameters(), lr=args.lr)所以,我实现了学习率衰减, If curr_loss > val_loss: prev_lr = param_group['lr'] para
浏览 11
提问于2018-12-06
得票数 1
1
回答
使用TensorFlow
的
三层深有线电视新闻网误差不减小
、
我试着训练
CNN
通过输入键盘输入游戏
的
图像来玩网络游戏。 这些错误被卡在一个特定
的
值中我试着提高/降低学习率,提高图像质量,改变批次
的
大小……似乎
浏览 0
提问于2018-07-31
得票数 0
回答已采纳
1
回答
DQN损耗不
收敛
、
、
、
我正在使用DQN算法在我
的
环境中训练一个代理,如下所示: 我已经调整了一些超参数(网络架构、探索、学习速度),这给了我一些下降
的
结果在训练过程中,每节课
的</
浏览 0
提问于2017-10-31
得票数 20
1
回答
GAN损耗与
模型
的
评价
、
、
、
我正在努力理解如何“客观地”评估GAN (也就是说,不能简单地看它生成
的
结果是“这看起来很好/不好”)。我
的
理解是,鉴别器应该领先一步,理论上,鉴别器
损失
和发生器
损失
都应该
收敛
到0.5 --在这一点上,两者都是同样“好”
的
。我目前正在训练一个
模型
,我得到
的
鉴别器
损失
从0.7开始,但很快
收敛
到0.25,生成器
损失
从50开始,
收敛
到0.35 (随着进一步
的
训
浏览 5
提问于2021-09-27
得票数 0
1
回答
人工神经网络时间序列分类验证
损失
永不减少
、
、
资料:~500个标有标记
的
例子。~30:70不平衡尝试利用预先训练过
的
图像分类器,通过生成带有固定轴
的
图
的
图像。也没有
浏览 0
提问于2023-01-31
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
如何根据训练/验证损失曲线诊断我们的CNN
基于Attention-CNN的语义匹配模型
transformer 模型的损失函数
模型不收敛,训练速度慢,如何才能改善 GAN 的性能?
词向量fasttext,CNN is All,强化学习,自回归生成模型,可视化神经网络损失函数
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券