腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
我
在
CNN
中
得到
尖峰
图
(
损失
与
时期
)
、
、
、
、
这是
我
为
CNN
创建的代码,但我注意到
损失
/
时期
图上的这些峰值,
我
无法解释。
我
尝试了adam optimizer,但结果仍然相同。
我
试图对恶性或良性乳腺肿瘤进行分类,但我的数据集有点小,只有3390张照片。Epoch') plot_loss(history) 图形丢失
与
纪元: ?
浏览 45
提问于2020-02-01
得票数 2
回答已采纳
1
回答
CNN
训练
损失
在
时代末期有规律的高峰
、
、
、
、
我
和亚当一起
在
PyTorch训练
CNN
,最初的学习速度是1e-5。
我
有5039个样本
在
我
的时代和批次大小是1。
我
观察到,
我
有一个规则的
尖峰
模式的训练
损失
在
一个时代的结束。以下是培训
损失
的情节: 从情节
中
,我们可以看到
在
时代末期发生的清晰的
尖峰
声。
我
的时代包含5039个样本。有趣的是,这些
尖峰</e
浏览 5
提问于2020-02-29
得票数 2
1
回答
为什么
我
的学习曲线会出现峰值或波动?
、
、
、
我
的学习曲线给出了一个3类分类问题的波动。
我
正在训练使用Resnet 50
与
899图像类1,899图像类2,690图像类3。
我
的模型的训练准确率为99.5%,验证准确率为93%,测试准确率为88%,周期= 300,批次大小为32,学习率为0.1。
我
试着将我的参数调整为50,100,200,300,批大小16,32,学习率0.1,0.01,0.001,0.0001,仍然存在
尖峰
。是
我
的模型或数据集有问题吗?
我
如何才能真正知道
我
的模型实际
浏览 2
提问于2021-07-26
得票数 0
1
回答
基于
CNN
的二值分类精度
图
、
、
、
为什么
在
CNN
图像的二值化分类
中
,
损失
和精度
图
是如此的不稳定?
我
的意思是,验证测试的准确性没有平稳地提高,达到80%,然后达到60%,然后又上升到84%等等。火车的准确性也是如此。现在,
我
如何知道多少个
时期
是最优的数目?
浏览 0
提问于2020-11-03
得票数 1
1
回答
为什么
绝对交叉熵
损失
与
NLP评分无关?
、
我
正在训练一个由一个
CNN
和三个GRUs组成的图像字幕的深层网络。训练过程
中
,模型
损失
(绝对交叉熵)降低,但当我测量bleu、METEOR、ROUGE、CIDEr和SPICE分数时,
损失
最大的
时期
是第一个
损失
最大的
时期
。
我
不明白
为什么
会发生这种事?如果绝对交叉熵不是自动编码器合适的
损失
函数,那么
我
应该使用什么呢?
浏览 0
提问于2019-06-11
得票数 3
1
回答
您应该在哪个阶段绘制验证和学习曲线?
因此,假设
我
有一个二进制分类问题,
我
从一个logistic回归模型开始。
我
快速地评估了模型的准确性(假设我们没有倾斜的数据集)。在此之后,
我
开始实现其他模型的比较,
我
开始检查准确性评分,并绘制一条ROC曲线来评估AOC评分。
我
什么时候才能真正画出学习和验证曲线?
我
假设
我</e
浏览 0
提问于2020-09-14
得票数 0
1
回答
神经网络
中
的
损失
图
、
、
我
制作了一个神经网络,并绘制了训练集和验证集的
损失
图
。对于验证,
我
得到
了阶跃函数类型的
损失
,而对于训练,
我
得到
了这些奇怪的
尖峰
。现在
我
知道
我
的模型没有学到任何东西,因为
我
的
损失
很高,但我仍然想知道这些峰值到底意味着什么。
我
的意思是
为什么
我会有这些
尖峰
。
我
一直
在
寻找文学作品,但
浏览 17
提问于2020-06-04
得票数 1
回答已采纳
4
回答
损失
与
准确度的关系
、
、
、
、
在
训练
CNN
模型时,是否有可能在每一个
时期
减少
损失
,降低准确度?
我
在
训练的时候
得到
了下面的结果。有人能解释一下发生这种情况的可能原因吗?
浏览 3
提问于2017-12-29
得票数 11
回答已采纳
1
回答
Keras save_weights
与
ModelCheckpoint的差异
、
我
通过两种方式保存keras模型1。"ModelCheckpoint“2.
我
的代码如下 训练和保存模型 model_checkpoint = ModelCheckpoint("Model_weights.hdf5", verbose=1, save_best_only=True
浏览 63
提问于2020-06-15
得票数 1
回答已采纳
3
回答
如何在Keras中保存每个
时期
的训练历史?
、
、
我
不能让
我
的电脑整天运行,为此,
我
需要在每个
时期
之后保存训练历史。例如,
我
已经
在
一天内训练了100个
时期
的模型,第二天,
我
想再训练50个
时期
。
我
需要生成整个150个
时期
的
损失
与
时期
和精度
与
时期
图
。
我
使用的是fit_generator方法。有没有办法保存每个
时期</em
浏览 0
提问于2018-05-02
得票数 13
0
回答
在
CNN
上,快速
损失
收敛意味着什么?
、
、
、
、
我
正在两个不同的DL库(Caffe Tensorflow)
中
训练两个
CNN
(AlexNet E GoogLeNet)。网络由每个图书馆(和)的开发团队实施
我
将原始Imagenet数据集减少到1个类别的1024张图像--但设置了1000个类别在网络上进行分类。所以我训练了
CNN
,不同的处理单元(CPU/GPU)和批处理大小,
我
观察到
损失
很快收敛到接近零(
在
大多数情况下在1个
时期
完成之前),如下图所示(Tensorflow上
浏览 5
提问于2017-12-05
得票数 2
回答已采纳
2
回答
如何在不改变结构的情况下改进
CNN
?
、
、
、
、
我
目前使用的是一个自动编码器
CNN
,它是建立
在
VGG-16架构之上的,它是由其他人设计的。
我
想首先使用他们的数据集复制他们的结果,但是
我
发现: -Validation的
损失
与
训练
损失
相当早(
我
到了大约10个
时期
,现在看来已经太合适了) -At是最好的,验证
损失
甚至没有训练
损失
( -In general)那么低,准确性仍然比他们
在
论文中所报道的要差。
我</e
浏览 0
提问于2020-05-14
得票数 0
1
回答
基于前十个时代的平均val_loss和n个部分的早期停止
、
、
、
、
我
和
CNN
一起
在
Keras训练DNN。虽然,
我
可以根据EarlyStopping编写一个基于val_loss的标准,但是由于val_loss
中
的微小振荡,
我
想用n个耐心来监视过去n个
时期
的平均验证
损失
。
我
怎么能在Keras做这件事?
浏览 0
提问于2021-11-23
得票数 0
1
回答
停止
CNN
模型
在
高精度和低
损失
率?
、
我
用大量的历次训练
我
的
CNN
模型,每次
我
打印训练
损失
和准确性,但是在这两个指标中有很多高和低,
我
想提前停止,例如,
损失
0.2,准确率
在
%95或更高,因为
我
在
不止一个
时期
得到
了这个值,
我
的问题是: 1-列车组或验证组是否提前停车2-如果在验证集上,
我
是否应该为每一个具有火车组丢失和准确性的时代打印验证
损失
和准确性?3-你能给出一个
浏览 0
提问于2019-01-25
得票数 2
回答已采纳
4
回答
Keras :由于丢失或准确性而无法访问的历史
、
、
我
正在用Tensorflow后端
在
Keras
中
训练
CNN
, batch_size=100, verbose=1,
在
每个
时期
,
我
可以
在
输出中看到打印的精度和
损失
(直到现在一切正常最后,
我
想
浏览 0
提问于2017-12-04
得票数 2
3
回答
Deeplearning4j神经网络仅预测1类
、
、
、
、
在过去的一周左右,
我
一直
在
尝试使用RGB图像来实现神经网络的功能,但无论
我
做什么,似乎只预测了一个类别。
我
已经阅读了所有
我
能找到的
与
遇到这个问题的人的联系,并尝试了许多不同的东西,但最终总是只能预测两个输出类
中
的一个。
我
检查了进入模型的批次,
我
增加了数据集的大小,
我
将原始像素大小(28*28)增加到56*56,增加了历元,做了大量的模型调整,
我
甚至尝试了一个简单的非卷积神经网络以及简化
我</
浏览 5
提问于2018-11-12
得票数 0
1
回答
验证
损失
和带有
尖峰
的准确性
、
、
、
、
我
用微调来做转移学习网络。
我
有16个课程,100张培训图片和24张验证图片。以下是
损失
图
和准确性
图
。
我
的问题是: 1.训练过程正确吗?
我
的意思是是否有过度适应。2.
为什么
在
第四个时代会有一个
尖峰
?
浏览 0
提问于2020-04-25
得票数 0
回答已采纳
2
回答
简单
CNN
的训练和测试精度参差不齐
、
、
、
我
正在使用keras实现一个简单的二进制分类网络。
我
有一个包含两个类别的数据集,
我
正在尝试使用这些数据来训练
我
的网络。
我
没有一个庞大的数据集。这两个类别的图像总数都在500左右。self.model.add(Dropout(0.25))sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)模型训练和
损失
图
如下所示:
浏览 0
提问于2017-05-25
得票数 1
1
回答
卷积神经网络(tensorflow)
损失
函数的周期性
、
、
、
、
我
正在使用在Tensorflow
中
实现的卷积神经网络(
cnn
)进行图像分割。
我
有两个类,
我
使用交叉熵作为
损失
函数和Adam优化器。
我
正在用大约150张图片训练这个网络。
在
训练过程
中
,
我
看到了这种周期性的模式,训练
损失
一直下降到有一对高的值,然后迅速下降到以前的水平。
在
验证
损失
中
也可以观察到类似的模式,验证
损失
会周期性地
浏览 0
提问于2018-06-05
得票数 0
1
回答
训练过程
中
恢复非正规化数据
、
、
我
在用TensorFlow/Keras训练
CNN
我
使用0到1之间的MinMaxScaler对输入(X)和输出(Y)数据(
在
我
的问题中有2个输入和3个输出)进行了标准化,如下所示:Y = scaler.fit_transform(Y) # Normalize output data 问题是,
在
训练期间,
在
每个
浏览 11
提问于2019-11-19
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习在OCR中的应用
Transformer也能生成图像,新型ViTGAN性能比肩基于CNN的GAN
看得“深”、看得“清” 深度学习在图像超清化的应用
横扫13项中文NLP记录,中文字型深度学习模型Glyce问世!
香侬科技提出中文字型的深度学习模型Glyce,横扫13项中文NLP记录
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券