腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
得
到了
训练
模型
和
负载
模型
的
不同
精度
、
、
如果我只是把我所有的评估代码放在
训练
代码
的
末尾,事情就会变得很好。 问题在于停止Python,启动一个新
的
Python脚本,并读入权重/
模型
以使用它们进行推断。我在加载时尝试
的
主要方法是:定义
模型
(使用与training run中保存权重
的
代码相同
的
代码),然后运行model.load_weights(),然后编译
模型
。这就是不起作用
的
地方。model.metrics_names[1], score[1]*
浏览 15
提问于2021-08-11
得票数 1
3
回答
为什么两个相同
训练
的
模型
有
不同
的
精度
?
、
、
用相同
的
数据集、相同
的
参数(历次、批次大小、学习率等)对同一
模型
进行两次
训练
。但这两种
训练
模型
在同一数据集上表现出
不同
的
训练
和
测试
精度
。(两种型号
的
代码相同)再一次
训练
模型
浏览 0
提问于2020-12-30
得票数 0
1
回答
如果我加载一个经过
训练
的
模型
,为什么
精度
和
损失数与列车相位
不同
?
、
、
、
通常,我会根据验证集
的
性能使用代码torch.save(model.state_dict(), 'test.pth')保存最佳
模型
。在
训练
阶段,我打印了上一个时代
的
Loss:0.38703016219139097损失和
精度
,得
到了
和
。然而,当我加载刚从
训练
阶段得到
的
模型
来打印损失和
精度
时,就会得到相同
的
精度
和
不同</e
浏览 1
提问于2022-04-22
得票数 1
2
回答
如何计算自定义数据集上TF对象检测API
的
准确率?
、
我正在使用TF对象检测API来检测自定义数据集上
的
对象,但是当涉及到
精度
时,我不知道如何计算它,因此,如何计算自定义数据集上
的
对象检测
模型
的
准确性?并找到
模型
在测试数据集上
的
置信度分数?
浏览 1
提问于2019-10-31
得票数 0
1
回答
训练
和
交叉验证数据
模型
的
理想得分
、
、
这个问题有点宽泛,但我在任何地方都找不到具体
的
解释,所以决定问这里
的
专家。我<em
浏览 0
提问于2019-06-07
得票数 0
回答已采纳
5
回答
训练
和
验证数据结构
、
、
如果我对我
的
机器学习分类器使用相同
的
训练
数据
和
验证数据,会发生什么?
浏览 6
提问于2021-01-02
得票数 2
1
回答
CNN与RNN: 20_newsgroup数据
的
分类
、
我是ML领域
的
初学者。我正在学习角角,以获得亲身体验。我选择了20_新闻组数据
的
分类作为我
的
任务,我使用glove.6B.50d.txt进行嵌入。我选择为这个任务
训练
一个RNN,因为它有更好地学习时间序列数据
的
能力。
训练
与
不同
组合
的
LSTM层
和
输出尺寸,然后收敛到一个组合。然后,我尝试了同样
的
任务
的
CNN
模型
。我发现CNN
模型
可以学习
得
更快,在1
浏览 0
提问于2018-05-23
得票数 1
2
回答
python-分割数据以获得高
精度
数据
的
最佳技术
、
、
、
、
我采用了以下4种方法: 我想知道我应该选择哪种方法?
浏览 6
提问于2019-11-17
得票数 0
3
回答
列车
精度
提高,列车损耗稳定,验证损失增加,验证
精度
低而增加
、
、
、
、
我
的
神经网络在火把上
的
训练
越来越快了。
训练
精度
从80%开始并提高 列车损耗减少并保持稳定 验证
精度
从30%开始,但增长缓慢 验证损失增加 我要展示以下图表:如何解释验证损失增加,验证
精度
increasesHow在验证集
和<
浏览 4
提问于2020-04-21
得票数 0
回答已采纳
1
回答
我是不是太适应了?
、
、
、
、
我目前正在用黑暗流Yolov2
训练
我
的
模型
。最优选择是有lr 0.001
的
SGD。基于这个图表,我
的
val损失>火车损失,这就意味着它太合适了?如果是的话,建议
的
行动方针是什么?要了解更多信息,我
的
训练
数据集包含每个类400个图像,只有一个注释,总共有2800个图像。我这样做是为了防止类不平衡,只对每个映像注释一个类实例。我
的
val数据集由350个图像组成,包含多个注释。基本上,我注释了图像中
的
每一个对象。我有
浏览 8
提问于2020-01-07
得票数 0
1
回答
有没有一种标准
的
方法来优化
模型
,使其在
不同
的
移动设备上运行良好?
、
、
、
我正在做一些辅助项目,涉及到将ML
模型
部署到边缘。其中一个是照片编辑应用程序,其中包括用于面部识别、物体检测、分类和风格转移
的
CNN应用程序。另一个是NLP应用程序,通过建议单词
和
句子补全来帮助写作过程。 一旦我有了一个准确
的
训练
有素
的
模型
,它在我正在测试
的
一个或多个移动设备(通常是低端
的
Android)上会变得非常慢。我读到有一些优化可以提高
模型
的
速度,但我不知道怎么做。有没有一个标准
的<
浏览 3
提问于2019-05-17
得票数 0
1
回答
如何理解
不同
机器学习
模型
的
性能?
、
我有一个数据集,其中包含处理条件(即42个特征)
和
一类材料
的
属性(即1个目标)。为了了解
不同
机器学习
模型
的
性能,在
训练
中考虑了
不同
数量
的
特征,对五种
不同
的
机器学习
模型
进行了测试。这些
模型
分别是线性回归(LR)、贝叶斯岭(BR)、最近邻(NN)、随机森林(RF)
和
支持向量机(SVM)回归。测试数据集的确定系数(R2)用来表示经过
训练
的</e
浏览 0
提问于2020-06-16
得票数 1
回答已采纳
3
回答
哪个神经网络更好?
、
、
、
MNIST数据集有6万个
训练
样本
和
10000个测试样本。 我见过有多少研究把重点放在测试集
的
准确性上,很少在
训练
集上写关于准确性
的
文章。第一种神经网络在测试集上
精度
浏览 0
提问于2021-07-23
得票数 0
回答已采纳
1
回答
如何在keras
和
python中保存
和
使用经过
训练
的
模型
、
、
我们希望保存一个经过
训练
的
模型
,以便在应用程序中使用它。所以问题是,如果我们加载
模型
,
精度
会很低。请参阅下面的代码。model.evaluate(X, y, verbose=1) print('Restored model, accuracy: {:5.2f}%'.format(100*acc), loss) 保存前
的
精度
和
损失:损失: 0.2324 -
精度
: 0.9202 - val_loss: 1.3
浏览 12
提问于2019-12-06
得票数 1
1
回答
训练
损失正在减少,但准确率保持不变
、
、
、
、
这是使用Roberta (BERT)进行多标签分类任务
的
训练
和
开发单元。第一部分是
训练
,第二部分是开发(验证)。train_dataloader是我
的
训练
数据集,dev_dataloader是开发数据集。我
的
问题是:为什么
训练
损失在逐步减少,而准确率却没有增加那么多?实际上,
精度
在迭代4之前是增加
的
,但是
训练
损失是减少
的
,直到最后一个时期( iterate )。这是正常
的<
浏览 594
提问于2021-01-17
得票数 0
2
回答
Tensorflow / Keras Python CNN
、
、
、
在
训练
CNN
的
过程中,它似乎很早就达
到了
100%
的
准确率,尽管它并不准确。我只有不到2000张照片,我想知道我是不是没有足够
的
照片,或者是我
的
模型
,就在这里 self.model.add(Conv2Dcategorical_crossentropy',
浏览 0
提问于2020-06-12
得票数 0
回答已采纳
1
回答
当我使用cross_val_score方法时,如何测试是否存在过拟合?
、
、
、
、
我从一本关于xgboost
的
书中得
到了
以下代码。我不知道这是否是一种正确
的
方法来分析交叉验证得分,以过份适合
的
目的。平均
精度
为81,这是可以接受
的
。但是如果
训练
的
准确率是99%呢?我们不应该也观察
训练
的
准确性吗?如果是,我如何做到这一点,因为
模型
是由cross_val_score方法与5种
不同
的
交叉验证-
训练
集拟合?
模型
=XGB
浏览 0
提问于2023-02-19
得票数 0
1
回答
调谐
模型
具有较高
的
CV
精度
,但测试
精度
较低。我应该使用调优
模型
还是未调优
模型
?
、
、
、
、
为了为我
的
最终
模型
选择最优
的
参数,我用一个参数网格来拟合一个GridSearchCV对象-- to --我
的
训练
数据,其中包含了Sci Kit学习
的
LogisticRegression分类器
的
默认参数。我所拟合
的
GridSearchCV
模型
的
CV
精度
为76.5%,表明该
模型
将比未调优
模型
具有更高
的
精度
。 When --我在测试集
浏览 0
提问于2023-02-21
得票数 0
1
回答
如何在C++中使用MXNet
模型
?
、
在我
训练
了一个
模型
之后,我如何在C++中使用它?我已经尝试过MXNet incubator-mxnet/example/image-classification/predict-cpp/
和
incubator-mxnet/cpp-package/example
浏览 0
提问于2017-11-15
得票数 1
2
回答
在GPU上进行
训练
并在CPU上进行推理时
的
模型
精度
、
、
、
、
当我们关心速度
的
时候,GPU比CPU好得多。。我
的
直觉说,GPU
和
CPU之间
的
关系,如果涉及到
精度
,就不应该有任何区别。 但我有一点怀疑,GPU
和
浏览 0
提问于2021-05-27
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
能在不同的深度学习框架之间转换模型?微软的MMdnn做到了
tensorflow训练模型loss不变化的可能原因和怎么判断tensorflow模型是否过拟合
苹果发布 OpenELM,基于开源训练和推理框架的高效语言模型
DeepSparse: 通过剪枝和稀疏预训练,在不损失精度的情况下减少70%的模型大小,提升三倍速度
更多作家起诉 OpenAI 和微软:“窃取”他们的作品训练 AI 模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券