腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
加载
保存
的
模型
后
,
在
同一
评估
数据
集
上
获得
不同
的
精度
、
、
我只是简单地使用MNIST
数据
集
来实现一个简单
的
ML应用程序。我
的
代码是 import tensorflow as tf(x_train, y_train),# evaluate on the same dataloaded_model.evaluate(x_test, y_test, verbose=2)
加载
后
,
浏览 26
提问于2020-11-09
得票数 0
回答已采纳
2
回答
在
新
的
未见
数据
集中
评估
我
的
模型
、
、
、
、
我已经对我
的
模型
(.fit())进行了训练,并对测试分割制造预测(.predict())
的
性能表示满意。因此,我将
模型
保存
到磁盘(.save('model.h5'))中。现在,我
获得
了新
的
未见
数据
集
,并被要求
评估
我在这个
数据
集
上
已经
保存
的
模型
的
性能。我不仅要报告准确性,而且
浏览 0
提问于2020-09-05
得票数 2
回答已采纳
4
回答
在
训练
集
上
评估
一个
模型
是一个好
的
实践吗?
、
、
、
、
对训练
集
模型
进行评价(即训练训练
模型
,
在
同一
训练
集
上
评估
回归误差/
精度
),并将评价结果与
模型
回归误差/交叉验证(我们
在
同一
训练
集
上进行交叉验证)和测试
集
的
精度
进行比较,以检查过拟合/不拟合是否是一种很好
的
做法吗据我所知,我们不应该对训练
集
浏览 0
提问于2020-08-20
得票数 1
2
回答
培训
集
交叉验证
后
是否需要测试
集
?
、
、
、
、
我想引用Aurelien
的
“与Scikit学习和TensorFlow一起进行机器学习
的
手”一书中
的
一段,关于
在
使用k-折叠交叉验证对训练
集
进行超参数调整之后对最终测试
集
的
评估
: “如果您进行了大量
的
超参数优化(因为您
的
系统最终对验证
数据
进行了很好
的
调整,并且
在
未知
数据
集
上
的
性能可能不太好),那
浏览 0
提问于2020-08-14
得票数 1
回答已采纳
3
回答
机器学习:基于测试
数据
的
训练
模型
我想知道一个
模型
是否也是从测试
数据
中训练自己,同时对它进行多次
评估
,从而导致了一个过度拟合
的
场景。通常,我们将训练
数据
分成train-test分割,我注意到有些人将它分成3组
数据
-- train、test和eval。eval是对
模型
的
最终评价。我可能错了,但我
的
观点是,如果上面提到
的
场景不是真的,那么就不需要eval
数据
集
。 需要澄清一下。
浏览 5
提问于2018-01-03
得票数 1
回答已采纳
1
回答
预测外部测试
集
的
最佳方法是什么?
、
、
我
的
问题是理论
上
的
,相当技术性
的
,所以我不会在这里张贴我
的
代码,因为代码可以
在
sklearn网站上找到。
浏览 0
提问于2019-08-14
得票数 0
回答已采纳
1
回答
在
Mask-R-CNN中,测试和验证之间有什么区别?
、
、
、
、
我有自己
的
图像
数据
集
,并使用Mask-R-CNN进行训练。在这里,您可以将
数据
集
分为训练、验证和测试。 我想知道验证和测试之间
的
区别。我知道,验证通常用于
在
每个时期之后查看NN
的
质量。在此基础
上
,你可以看到神经网络有多好,以及是否发生了过拟合。但我想知道神经网络是否基于验证
集
进行学习。 基于训练
集
,神经网络
在
每幅图像之后学习,并调整每个神经元以减少损失。
在
神经网络
浏览 68
提问于2019-04-16
得票数 0
回答已采纳
2
回答
训练和测试误差之间
的
小差距,这是否意味着过拟合?
、
我正在处理一个包含368609个样本和34个特征
的
数据
集
,我想使用神经网络来使用keras来预测延迟(实际值),该
模型
有3个隐藏层,每层有1024个神经元,我已经为每个隐藏层使用了drop_out (问题是我得到
的
测试平均绝对误差为3.5505毫秒,训练平均绝对误差为3.4528。在这里,训练误差比测试误差小一个小
的
差距,这是否意味着我们在这里有一个过拟合问题?
浏览 59
提问于2020-06-16
得票数 1
回答已采纳
1
回答
TFF:
在
模拟用户
的
随机样本时,准确率没有增加
通过模拟在每轮中随机选择客户
的
tff代码,我发现准确率增加到0.9,然后回归到0.5,然后从0.8到0.6,依此类推,它没有增加。你知道吗?谢谢!
浏览 4
提问于2020-04-27
得票数 0
1
回答
为MNIST
数据
集
保存
适合
的
CNN
模型
的
合适方法是什么?
、
、
、
、
我为MNIST
数据
集
开发了一个简单
的
CNN
模型
,得到了98%
的
验证
精度
。但是,
在
将
模型
通过keras
保存
为model.h5并在另一个jypyter会话中对
保存
的
模型
进行推理
后
,该
模型
的
性能较差,预测是随机
的
。
在
不同
的
jypyter笔记本会话中
保存</
浏览 4
提问于2022-12-01
得票数 -2
2
回答
在
Keras中,验证
精度
始终大于训练
精度
、
、
我正在尝试用mnist
数据
集训练一个简单
的
神经网络。由于某种原因,当我
获得
历史(从model.fit返回
的
参数)时,验证
精度
高于训练
精度
,这真的很奇怪,但如果我
在
评估
模型
时检查分数,我会
获得
比测试
精度
更高
的
训练
精度
。 无论
模型
的
参数是什么,每次都会发生这种情况。此外,如果我使用自定义回调并访问参数'acc‘和&
浏览 1
提问于2017-07-17
得票数 16
回答已采纳
1
回答
如何正确地建立神经网络训练以保证稳定
的
精度
和损失
、
、
、
、
我有一个用于图像分类
的
DenseNet121。就目前而言,培训安排相当简单:针对每一个时代,对训练
数据
加载
器进行迭代,计算损失,优化等。 每100批使用验证
数据
加载
器
评估
损失。
在
一个时代结束时,将
浏览 0
提问于2021-01-30
得票数 1
回答已采纳
1
回答
三重态丢失-使用什么阈值来检测两个嵌入之间
的
相似性?
、
、
我使用FaceNet架构训练了我
的
三重态丢失
模型
。我使用了11k手
数据
集
。现在,我想看看我
的
模型
执行得有多好,所以我将
同一
类
的
2个图像提供给它,并取回它们
的
嵌入。我想比较这些嵌入之间
的
距离,如果这个距离不大于某个阈值,我可以说
模型
正确地将这2幅图像分类为
同一
个类。阈值是否与用于三重态损失函数
的
边缘超参数相同?,然后将其视为总体
精度</em
浏览 0
提问于2018-08-26
得票数 1
1
回答
在
同一
循环中进行训练和测试时
的
验证准确性
、
因为我是
在
同一
个循环中训练和测试
的
(对于training set
上
的
每个时期,网络都应用于整个validation set)。现在,我
在
某个时刻(第n个时期)得到
的
最高验证
精度
是我
的
网络
的
最高
精度
,这有意义吗?或者我应该只
在
图形稳定并且权重不变
的
情况下使用验证
精度
吗?
浏览 2
提问于2020-10-07
得票数 0
2
回答
RandomForest惊人
的
高
精度
、
、
在
尝试了朴素
的
Bayes之后,我一直在用Python
上
的
随机森林进行实验,这给了我比我预期
的
更低
的
准确率,62%。我
的
csv文件有大约14,000条记录,我使用80%
的
训练
集
和20%
的
测试
集
。我尝试了
不同
的
参数,如100树,500和1000,-1 n_jobs等等,但在所有这些测试中,准确性没有太大
的
变化,它总是
在
74%或75%
浏览 0
提问于2019-07-07
得票数 1
1
回答
random_state
在
train_test_split中是否会影响
模型
的
实际性能?
、
、
、
、
我明白为什么一个
模型
的
分数对于每个random_state是
不同
的
,但是我确实期望最高和最低分数之间
的
差异(从random_state 0到100)是0.37,这是很多
的
。(下载->
数据
文件夹-> student.zip -> student mat.csv)import pandas as pd grade_df_main =
浏览 4
提问于2020-06-28
得票数 1
回答已采纳
1
回答
推荐引擎
的
查全率与召回评价
、
、
我正在
评估
一个使用精确和召回
的
推荐引擎。到目前为止,我已经用4个
不同
的
数据
集
对系统进行了
评估
,
精度
值分别为0.833、0.857、0.857和0.769。相同
数据
集
的
召回值分别为0.448、0.875、0.5504和0.512。如何使用这些结果来
评估
测试中
的
推荐引擎?我是否应该在
同一
数据
集
上
应
浏览 7
提问于2014-09-28
得票数 1
回答已采纳
1
回答
经过训练
的
模型
在
整个
数据
集
上表现更差。
、
、
、
、
我使用pytorch作为训练框架和官方
的
示例,用我
的
自定义
数据
集训练图像分类
模型
。我
的
模型
在
训练阶段平均
浏览 0
提问于2021-09-24
得票数 1
回答已采纳
2
回答
Keras序列
模型
的
负载检验总损失/验证
精度
、
、
、
对于以下问题,我没有找到任何答案:m = load_model.load("lstm_model_01.hd5") 我检查了m
的
所有可调用方法,但没有找到我要
浏览 0
提问于2018-03-07
得票数 2
回答已采纳
1
回答
有没有一种方法可以
在
训练期间
评估
模型
?
、
、
我已经为项目的
不同
阶段设置了ML管道。管道是这样
的
-
数据
提取->
数据
验证->预处理->训练->
模型
评估
模型
评估
,
在
完成培训后进行,以确定
模型
是被批准还是被拒绝。现在,我想要
的
是
在
训练过程中在任何时候进行
模型
评估
。大约在60%
的
训练完成时,停止训练并
评估
模型
,基于此,
浏览 23
提问于2021-04-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券