腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
单独
的
数据
集
进行
模型
验证
machine-learning
、
scikit-learn
、
svm
我正在尝试
使用
外部
数据
集
对文本字符串
进行
二进制分类来
验证
模型
。我已经训练了
模型
,但希望将其用于不同大小
的
另一个
数据
集
进行
预测,而不是将
数据
包括在初始
数据
集
拆分中。这有可能吗?total_requests) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1
浏览 32
提问于2020-03-23
得票数 0
回答已采纳
1
回答
如何
使用
Rapidminer在testset上
进行
测试?
performance
、
evaluation
、
rapidminer
我对几个
模型
进行
了交叉
验证
,以获得最好
的
工作
模型
。现在,我想
使用
此
模型
在一个
单独
的
测试
集
上
进行
测试,该测试
集
使用
拆分
数据
来估计性能。 如何
使用
测试
集
?据我所知,所有的
验证
模块都
使用
模型
所在
的
训练
集
。我可以在
模型</
浏览 0
提问于2013-04-08
得票数 1
回答已采纳
1
回答
在同一循环中
进行
训练和测试时
的
验证
准确性
deep-learning
、
pytorch
因为我是在同一个循环中训练和测试
的
(对于training set上
的
每个时期,网络都应用于整个validation set)。现在,我在某个时刻(第n个时期)得到
的
最高
验证
精度是我
的
网络
的
最高精度,这有意义吗?或者我应该只在图形稳定并且权重不变
的
情况下
使用
验证
精度吗?
浏览 2
提问于2020-10-07
得票数 0
1
回答
在多层感知器中
进行
交叉
验证
时,我要初始化哪些
模型
?
neural-network
、
cross-validation
、
training
、
mnist
因此,据我所知,交叉
验证
是用来确定最佳
模型
的
。假设我
使用
的
是5倍交叉
验证
,这意味着我必须制作5种不同
浏览 0
提问于2018-09-29
得票数 1
回答已采纳
1
回答
训练
验证
.基于神经网络和网格搜索
的
测试分割
machine-learning
、
neural-network
、
artificial-intelligence
我在机器学习环境中工作,
使用
神经网络。 测试
集
:用于评估
模型
的
性能。
单独
拟合一个神经网络(例如,
使用
keras),因此只要学习权重,就可
浏览 0
提问于2019-08-10
得票数 1
回答已采纳
1
回答
如何在python/sklearn中交叉
验证
来自随机森林
的
预测?
random-forest
、
prediction
、
cross-validation
请有人告诉我,如果这是正确
的
方法,计算交叉
验证
的
精度我
的
分类器?我将我
的
数据
集
划分为训练
数据
的
xtrain和ytrain,以及测试
集
的
xtest & ytest。构建
模型
:适合于训练
集
的
:,这是
浏览 8
提问于2015-07-04
得票数 3
1
回答
在H2O中训练RMSE高于
验证
RMSE
validation
、
deep-learning
、
regression
、
h2o
我
使用
H2O-深度学习
模型
来解决回归问题。我观察到
的
是,培训RMSE高于
验证
RMSE。我
使用
的
是默认参数
的
模型
,即两个隐层,每个层有200个神经元,没有l1/l2正则化。激活是整流器。我想知道如何在
验证
RMSE下面调优两个获得训练RMSE
的
超参数?我正在
使用
单独
的
列车,
验证
和测试
集
浏览 0
提问于2018-11-26
得票数 1
1
回答
交叉
验证
和
单独
的
“提供
的
测试
集
”
weka
、
cross-validation
在执行10折交叉
验证
之后,是否可以
使用
单独
的
“提供
的
测试
集
”执行重新评估?
浏览 2
提问于2013-04-17
得票数 1
回答已采纳
2
回答
对
模型
进行
培训是否需要
验证
集
?
validation
、
machine-learning
、
cross-validation
为了我
的
研究,我用CNN建立了一个三维图像分类
模型
。我只有5000张图像,训练用4500张图像,测试
集
用500张图像。我尝试了不同
的
结构和参数
的
训练和F1评分和训练
集
的
准确性高达0.9。幸运
的
是,我没有花很多时间来寻找这些设置
的
高精度。我
的
问题是,是否有必要
进行
浏览 0
提问于2018-03-02
得票数 1
回答已采纳
2
回答
培训
集
交叉
验证
后是否需要测试
集
?
machine-learning
、
python
、
cross-validation
、
training
、
hyperparameter-tuning
我想引用Aurelien
的
“与Scikit学习和TensorFlow一起
进行
机器学习
的
手”一书中
的
一段,关于在
使用
k-折叠交叉
验证
对训练
集
进行
超参数调整之后对最终测试
集
的
评估: “如果您
进行
了大量
的
超参数优化(因为您
的
系统最终对
验证
数据
进行
了很好
的
调整,并且在未知
数据
浏览 0
提问于2020-08-14
得票数 1
回答已采纳
1
回答
是否可以
使用
经过
验证
的
模型
对整个
数据
集
进行
预测?
r
、
validation
、
machine-learning
、
cross-validation
、
gbm
我们已经在大约15k行
的
数据
集
上运行了'gbm‘
模型
。我们已经直接实现了10折交叉
验证
,以提出一个交叉
验证
模型
,我们正在
使用
该
模型
在同一
数据
集
上再次
进行
预测。这导致了可能过拟合
的
模型
约为0.99训练AUC和0.92cv AUC。预测AUC也很高,约为0.99。 审查者要求我们
使用
坚持
数据
集</
浏览 1
提问于2018-04-18
得票数 2
2
回答
使用
验证
、培训和测试
集
之间
的
顺序
machine-learning
、
cross-validation
、
train-test-split
我试图了解机器学习中
的
模型
评估和
验证
过程。具体而言,培训、
验证
和测试
集
的
使用
顺序和方式。 假设我有一个
数据
集
,我想
使用
线性回归。我在各种多项式度(超参数)之间犹豫不决.之后,
使用
验证
集
来找到最佳
的
超参数(在这种情况下,多项式度)(维基百科
的
文章说:“连续地,拟合
模型
用于预测第二个
数据
集中<em
浏览 1
提问于2019-01-10
得票数 1
回答已采纳
2
回答
我们是在cross_val_score上评估准确性,然后评估测试
数据
的
准确性吗?
python
、
pandas
、
dataframe
、
scikit-learn
、
classification
嗨,如果我们要用以下方法来评估cv
的
准确性: X, y, random_state=42X_train, y_train)然后评估测试
集
上
的
性能是常见
的
吗for value in y_pred] accuracy = accura
浏览 3
提问于2020-09-14
得票数 1
回答已采纳
2
回答
ML
模型
部署体系结构?
machine-learning
、
machine-learning-model
、
databases
、
data-product
我来自一个软件开发背景,我们拥有相同
数据
库
的
独立服务器(dev、test、prod)。之所以如此,是因为我们开发了针对dev DB
的
应用程序,针对Test运行了测试,而prod就是prod。这样我们就可以创建一个清晰
的
分离,并且不会降低我们构建应用程序
的
难度。 你们用同样
的
方式训练你们
的
模特吗?有三个相同
数据
库
的
环境,当您
的
模型
从开发到测试到测试,它是针对相应
的
环境
进行</
浏览 0
提问于2019-05-14
得票数 1
1
回答
机器学习中不同方法
的
比较
machine-learning
如何确定我
的
机器学习
模型
的
最佳策略?例如,让我们考虑一个场景,其中我正在处理线性回归,并希望比较三种不同
的
方法。第一种方法涉及
使用
所有特征作为输入,第二种方法需要手动选择最相关
的
特征作为输入,第三种方法涉及到实现主成分分析(PCA)。考虑到这三种方法,是否应该
使用
k-折叠交叉
验证
来评估每一种方法,而不需要再培训
模型
,然后比较交叉
验证
的
结果以确定最佳
的
方法而不
使用
测
浏览 0
提问于2023-06-01
得票数 0
1
回答
在Mask-R-CNN中,测试和
验证
之间有什么区别?
validation
、
neural-network
、
instance
、
loss
、
faster-rcnn
我有自己
的
图像
数据
集
,并
使用
Mask-R-CNN
进行
训练。在这里,您可以将
数据
集
分为训练、
验证
和测试。 我想知道
验证
和测试之间
的
区别。我知道,
验证
通常用于在每个时期之后查看NN
的
质量。但我想知道神经网络是否基于
验证
集
进行
学习。 基于训练
集
,神经网络在每幅图像之后学习,并调整每个神经元以减少损失。在神经网络完成学
浏览 68
提问于2019-04-16
得票数 0
回答已采纳
1
回答
只有在
验证
改进
的
情况下,我才能更新keras神经网络
的
权重吗?
validation
、
tensorflow
、
keras
、
neural-network
、
backpropagation
我正在keras中训练神经网络,我达到了一个经典
的
极限-我
的
训练精度随着时代
的
增加而提高,但我
的
验证
精度在9个时代之后会下降(见图)。 ? 我想知道我是否可以通过执行以下操作来避免
验证
精度
的
下降:如果时期导致
验证
精度
的
提高,则使keras net仅接受每个时期之后对权重
的
更改,否则重置为时期之前
的
状态?我假设
验证
在很大程度上开始偏离,因为在每个时期>9之后,神经网络<e
浏览 15
提问于2019-09-01
得票数 0
1
回答
我自己
的
模型
对完整
的
数据
进行
了培训,比我从best_estimator获得
的
GridSearchCV和refit=True更好吗?
xgboost
、
data-science-model
、
hyperparameter-tuning
、
gridsearchcv
我
使用
XGBoost
模型
对一些
数据
进行
分类。我有一个独立
的
测试
集
,我从来没有用过,直到结束。我
使用
GridSearchCV来确定最佳参数,并将cv拆分(5倍)输入其中,并设置refit=True,以便一旦它计算出它在完整
数据
上训练
的
最佳超参数(所有折叠,而不是仅4/5倍)并返回best_estimator然后,我在最后
的
测试
集
上测试这个最好
的
模型
。 然后
浏览 0
提问于2021-06-25
得票数 2
1
回答
在学习中,火车测试拆分得分较高,CV得分较低
python
、
scikit-learn
、
virtual-machine
、
random-forest
、
cross-validation
我是
数据
科学
的
新手,一直在为Kaggle
的
问题而奋斗。用随机森林回归预测评分时,发现列车测试分割得分较高,而CV得分较低。
浏览 2
提问于2020-07-05
得票数 0
3
回答
为什么我们每次都需要重新创建
模型
?
python
、
logistic-regression
、
k-fold
X_train, y_train)print(scores)我
的
问题是,我是否需要在每次拆分中创建一个新
模型
?我会把它放在前面,以节省计算时间,但由于它是以这种方式呈现
的
,我认为这是有原因
的
。
浏览 4
提问于2020-09-10
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
腾讯会议
活动推荐
运营活动
广告
关闭
领券