腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1402)
视频
沙龙
1
回答
我
创
建了
一个
ResNet
模型
,
但在
训练
过程中
损失
不会
减少
、
、
、
、
我
是深度学习和计算机视觉的新手,在完成CNN上的Courseera课程后,
我
想要复制作业,但使用PyTorch而不是Tensorflow。其中一项任务涉及使用
ResNet
架构进行手势分类。
我
创
建了
ResNet
34 &
ResNet
50,这是
我
对纸上描述的最好理解,然而,当我
训练
它时,
损失
不会
消失。已经3天了,
我
想不出任何解决办法。在这一点上不确定是
模型
问题
浏览 77
提问于2021-06-09
得票数 1
1
回答
SSD
Resnet
50 FPN
损失
函数说明
、
、
、
、
我
在
我
的数据集上使用tensorflow对象检测api。
我
使用的是ssd-
resnet
50-fpn
模型
。在
训练
过程中
,
我
看到分类
损失
和本地化
损失
已经收敛,但总
损失
仍在
减少
。另外,总
损失
也不是分类
损失
和定位
损失
的总和。任何关于为什么会发生这种情况的想法。
我
正在使用object_detection/ tr
浏览 11
提问于2020-02-25
得票数 0
1
回答
具有不平衡数据的二进制类的语义分割
损失
不收敛
、
、
、
、
我
想分割只占据整个数据集的一小部分的对象(例如,ICDAR2015或CamVid中的人)。像素级正负样本的比例约为1:200。
我
的网络的主干是预先
训练
好的VGG16或
ResNet
50,可以在有12个类的CamVid数据集中很好地工作。然而,当我将这个网络微调为仅分割CamVid中的人时,
损失
将保持在0.31左右,即使使用真正小的学习率(如1e-5),
损失
也永远
不会
减少
。更重要的是,当在另
一个
数据集(ICDAR 2015)上
训练
浏览 29
提问于2017-12-25
得票数 0
2
回答
验证显示出巨大的波动。可能是什么原因?
、
、
我
在
训练
CNN来解决三级图像分类问题。
我
的
训练
损失
平稳地
减少
了,这是预期的行为。然而,
我
的验证
损失
显示出很大的波动。📷附加信息:
我
正在微调
一个
Resnet
-18的最后一层,它是在ImageNet数据上接受过PyTorch预培训的。
我</em
浏览 0
提问于2018-05-02
得票数 10
回答已采纳
1
回答
Tensorflow-
训练
时
损失
不会
减少
、
我
在
训练
集中有500张图片,在测试中有40张。
我
执行了以下步骤,
我
有两个问题。1.
我
使用LabelImg工具注释了
我
的图像。2.成功地创
建了
tfrecord。3.
我
使用了ssd_inception_v2_coco.config。
我
修改了唯一的路径,没有类,
我
没有从头开始
训练
,
我
使用了ssd_inception_v2_coco
模型
检查点。问题1:从0步到3000步,
浏览 0
提问于2017-11-17
得票数 1
1
回答
损失
和正则化推理
、
、
、
我
正在为MovieLens数据集建立
一个
矩阵分解
模型
,并进行批量
训练
。批处理
损失
函数: 📷
我
应该从正规化
损失
上升中推断出什么?
模型
不能利用当前嵌入的大小捕获底层信息,或者正则化
损失
的规模比基
损失
小?
浏览 0
提问于2019-01-18
得票数 2
回答已采纳
2
回答
验证
损失
在初始培训期间卡住(v1)
、
、
、
、
我
已经构
建了
一个
包含4个类的小型自定义图像分类
训练
/val数据集。
训练
数据集有大约110.000个图像。验证数据集有大约6.000个图像。
我
遇到的问题是,在
训练
过程中
,
训练
精度(以上
一个
训练
样本的平均精度衡量)和
训练
损失
都有所提高,而验证精度和
损失
保持不变。这仅在
我
使用inception和
resnet
浏览 11
提问于2017-08-04
得票数 2
回答已采纳
1
回答
迁移学习中的
模型
微调
、
、
、
、
我
正在研究
一个
深度学习
模型
,用于“年龄不变的人脸检测”。
我
开始对数据进行预处理,包括通过MTCNN进行人脸裁剪,图像对比度校正和锐化。然后
我
开始构建
模型
架构,
我
设计了
一个
定制的顺序CNN
模型
。
训练
和验证
损失
接近1.9,但
模型
一个
时期大约需要8小时。
我
需要快速的结果,所以我开始尝试迁移学习。
我
读到一篇论文,说
Resnet<
浏览 17
提问于2020-10-02
得票数 0
1
回答
keras使用restore_best_weights提前停止,使用save_best_only和过拟合创建
模型
检查点
、
、
我
知道keras、回调、提前弯腰和
模型
检查点可以防止过拟合。当我在restore_best_weights=True中使用早期的弯腰时,由于耐心较小,
我
有时会错过最好的
模型
,而当我在save_best_only =True中使用检查点回调时,
我
需要做很多时期。因此,
我
认为也许我会以更大的耐心使用提前停止,但我的问题是,在一些时期之后,
我
的验证
损失
是非常Z字形的(即,这意味着它变得越来越小,没有任何特定的模式)。
我
试图找出当验证
浏览 3
提问于2020-09-01
得票数 0
1
回答
Keras train_step获取纪元号
、
、
我
从keras.Model继承而构
建了
自己的Keras
模型
类。然而,
我
有
一个
修改过的
训练
步骤,在那里
我
手动导出前向传递并计算两个不同的
损失
,
我
将其求和,使
我
的总
损失
为total_loss = loss1 + factor*loss2。
我
观察到,如果
我
在
训练
过程中
减少
这个因素,我会得到更好的结果。
我</e
浏览 1
提问于2020-10-10
得票数 3
2
回答
Keras预
训练
网络中图像检索的三重态
模型
、
、
、
我
想实现
一个
图像检索
模型
。该
模型
将使用三重态
损失
函数(与facenet或类似的体系结构相同)进行培训。
我
的想法是使用来自Keras的预先
训练
的分类
模型
(例如
resnet
50),并使它成为
一个
三重体系结构。
我
已经尝试过不同的学习步骤,不同的批次大小,不同的
损失
函数,从原来的
resnet
模型
中选择不同的输出层,在
resnet
的末尾添
浏览 4
提问于2017-12-09
得票数 5
回答已采纳
1
回答
为什么负载型Pytorch
模型
的
损失
大幅度增加?
、
、
、
、
我
试着用参考来
训练
Arcface。在培训后的100年间,
我
停止了一段时间的培训,因为
我
需要在其他任务中使用GPU。并保存了
模型
的检查点(
Resnet
)和边界。在停止
训练
前,其丢失值在0.3~1.0之间,
训练
准确率达到80~95%。但突然间,
损失
急剧增加,准确度变得很低。 它的
损失
突然增加了。怎么会出这事?
我
没有别的办法,所以无论
浏览 4
提问于2020-10-27
得票数 0
回答已采纳
2
回答
pytorch的交叉
损失
与keras的"categorical_crossentropy“有区别吗?
、
、
、
我
正在尝试在keras中模仿pytorch神经网络。
我
确信我的keras版本的神经网络与pytorch中的非常接近,
但在
训练
过程中
,
我
看到pytorch网络的
损失
值比keras网络的
损失
值要低得多。
我
想知道这是不是因为
我
没有正确复制keras中的pytorch网络,或者两个框架中的
损失
计算是不同的。)
resnet
.compile(loss='categorical_cr
浏览 555
提问于2020-04-26
得票数 3
回答已采纳
2
回答
为什么培训和验证类似的
损失
曲线会导致业绩不佳
、
、
利用matlab
训练
二值分类神经网络
模型
,给出了在隐层中使用20个神经元得到的图。交叉熵与年代之间的混淆矩阵和图。WHy,这是正在发生的,
我
在理解这些曲线时做错了什么?📷📷
浏览 0
提问于2018-05-19
得票数 3
1
回答
当深度学习神经网络在验证准确性方面停止改进时,下一步该怎么办?
、
、
我
遇到了这个问题,
我
的
模型
只有在大约20或30个时期之后才能非常快地收敛,
我
的数据集包含7000个样本,
我
的神经网络有3个隐藏层,每个隐藏层有18个神经元,批归一化丢失率为0.2。
我
的任务是多标签分类,其中
我
的标签是0 0 1、0 1 0、1 0 0和0 0 0 num_neuron = 18model.add(Dense(num_neuron
我
想知道
我
是否可以做些什么来改进,因为即使<em
浏览 22
提问于2020-07-07
得票数 0
1
回答
我
应该选择哪种学习率?
、
、
、
、
我
在2d图像上
训练
一个
分割
模型
,Unet++,现在
我
正在寻找最优的学习速度。
模型
的主干是
Resnet
34,
我
使用Adam优化器,
损失
函数是骰子丢失函数。:验证
损失
和
训练
损失
似乎下降缓慢。然而,验证
损失
并不是振荡的(它几乎总是在
减少
)。验证和
训练
损失
在前2/3年代迅速下降。经过6或7个周期后
浏览 0
提问于2020-11-13
得票数 3
回答已采纳
1
回答
训练
损失
正在
减少
,但验证
损失
是重要的。如何避免过度拟合
、
、
、
、
我
想重新
训练
谷歌的mediapipe手部地标,以便进行更多关键点检测,但该
模型
仅在tflite格式下可用,无法重新
训练
。
我
创
建了
一个
与mediapipe手
模型
相同的
模型
,并用
我
的自定义数据对其进行了
训练
,但面临着过度拟合的问题,
我
正在使用: RMSprop作为优化器 MSE (均方误差作为
损失
函数) 批量大小= 32初始学习率=1e-3 decay_steps=
浏览 20
提问于2021-08-03
得票数 0
1
回答
什么是
训练
的准确性和
训练
的
损失
,为什么我们需要计算它们?
、
我
是Lstm和机器学习的新手,
我
正在努力理解它的一些概念。下面是
我
的Lstm
模型
的代码。accuracy'])下面是
我
输出的
一个
示例:以及列车/测试精度和列车/测试损耗图:
我
的不足(如果
我
错了,请纠正
我
)是val
浏览 0
提问于2021-01-14
得票数 0
回答已采纳
2
回答
损失
函数-在时代开始时
减少
了很多。
、
、
当我看到详细的输出时,
我
注意到了一些东西。当我
训练
我
的
模型
时,在这个时代的早期(前20 %),
损失
减少
了很多。然后在其余的时期(最后的80%),
损失
是非常稳定的,并且在下
一个
时代之前
不会
有太大的变化。
我
建立了
一个
模型
,用于
训练
一种大型数据集(60000条条目)。
我
使用的是Keras和Tensorflow,
我
的
模型</em
浏览 0
提问于2020-05-19
得票数 2
回答已采纳
5
回答
如何解释
损失
和准确性的增加
、
、
我
使用tensorflow运行了深度学习
模型
(CNN)。在这一时期,
我
多次观察到,
损失
和准确度都增加了,或者两者都
减少
了。
我
的理解是两者总是成反比关系。什么情况下两者同时增加或
减少
。
浏览 1
提问于2016-12-01
得票数 40
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
ResNet假说被推翻?Reddit小哥:这么多年都没人搞懂Ta的原理
六步教你如何用开源框架Tensorflow对象检测API构建一个玩具检测器
浅析深度ResNet有效的原理
MIT教授博士论文:面向深度学习的高效方法与硬件加速
迁移学习没有那么难:TensorFlow 2.0预训练模型实践指南
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券