腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为
XGBoost
回归
算法
检索
不同
实例
的
相同
输出
python
、
machine-learning
、
data-science
、
xgboost
我有以下使用
XGBoost
回归
算法
执行预测
的
data。然而,问题是,
回归
算法
对任何输入都预测
相同
的
输出
,我真的不确定为什么。MSE_train))print("R-Squared: ", np.round(R_squared, 2)) 第一个
实例
的
输出
X_dat
浏览 15
提问于2021-10-03
得票数 0
回答已采纳
4
回答
xgboost
中
的
多
输出
回归
machine-learning
、
random-forest
、
xgboost
是否有可能在
Xgboost
中训练具有多个连续
输出
(多元
回归
)
的
模型?训练这样一个模型
的
目标是什么? 提前感谢您
的
任何建议
浏览 23
提问于2016-09-17
得票数 32
1
回答
在
XGBoost
或任何其他基于树
的
方法中,特性
的
重要性是否可靠?
feature-selection
、
decision-trees
、
xgboost
、
feature-engineering
、
boosting
我几乎可以肯定,对于单棵树来说,它是不可靠
的
,因为树
的
变化很大,主要是在终端区域是如何建造
的
。
XGBoost
在经验上优于单一树和“最佳”集成学习
算法
,因此我们将针对它进行研究。使用
XGBoost
的
优点之一是它
的
正则化以避免过度拟合,
XGBoost
还可以学习像线性
回归
或线性分类器一样好
的
线性函数(参见Didrik )。我
的
麻烦是,它
的
解释已经出现了由于图像低沉: 📷
浏览 0
提问于2021-07-15
得票数 0
回答已采纳
2
回答
如何在没有
XGBoost
库
的
情况下生成
XGBoost
输出
?
python
、
c++
、
xgboost
、
mql4
我有一个用Python训练
的
XGBoost
二进制分类器模型。 我希望在
不同
的
脚本环境(MQL4)中,使用纯数学操作,而不使用
XGBoost
库(.predict),
为
新
的
输入数据生成该模型
的
输出
。有人能在公式和/或
算法
方面提供帮助吗?
浏览 2
提问于2016-12-02
得票数 2
回答已采纳
1
回答
梯度boosting中
的
少量估计量
machine-learning
、
xgboost
、
hyperparameter
、
hyperparameter-tuning
、
lightgbm
我正在调整一个
回归
梯度助推模型,以确定适当
的
超参数使用4倍交叉验证。更具体地说,我使用
XGBoost
和lightGBM作为模型,使用贝叶斯优化
算法
进行超参数搜索(hyperopt)。超参数优化
算法
的
结果是,估计量
的
最佳个数
为
100,当估计量
的
范围被修改为50-300时,我重复了
相同
的
分析,这一次超参数优化
算法
的
结果是估计量
的
最佳个数
为</
浏览 0
提问于2020-02-24
得票数 4
1
回答
XGBoost
如何计算predict_proba()中
的
概率?
scikit-learn
、
random-forest
、
decision-trees
、
xgboost
、
predict-proba
我正在为
XGBoost
使用sklearn包装器。我没有找到一个清晰
的
解释,说明predict_proba()
输出
的
概率是如何计算出来
的
。例如,在随机森林中,我知道它反映了属于这个类别的样本在所有树木
的
相关叶子中所占比例
的
平均值。 但是,在
XGBoost
中,我无法理解文档或代码中
的
计算。不是应该给每棵树
不同
的
重量吗?
浏览 0
提问于2017-03-19
得票数 6
2
回答
一种具有近机会最优性能问题
的
机器学习
算法
machine-learning
、
python
、
deep-learning
许多机器学习
算法
能够复制人类
的
性能,并且几乎可以肯定地识别狗或猫。 对于我
的
问题,没有确定性,只有一个略好于随机预测。我正试图预测最近从监禁中释放出来的人是否会在明年内犯罪。假设再犯
的
可能性是50/50。如果我能用机器学到
的
东西比随机预测稍微好一点,那对我来说将是一场巨大
的
胜利。我知道这个任务是可能
的
,因为我使用了一个数据集(大约有50个特性和10万个观察)来建立一个“人工”线性
回归
,从样本中获得了大约52%
的
结果。我尝试过
浏览 0
提问于2020-06-25
得票数 2
3
回答
逻辑
回归
数据集标签
的
含义是什么?
machine-learning
、
libsvm
我学习Logistic
回归
已经有些日子了,我认为logistic
回归
的
数据集
的
标签应该是1或0,对吗?非常感谢!
浏览 1
提问于2013-01-19
得票数 3
1
回答
XGBoost
和DNN模型在BigQuery ML中有使用样本权重
的
方法吗?
machine-learning
、
deep-learning
、
google-bigquery
、
xgboost
我有一个数据集,每个
实例
都有
不同
的
权重。在我
的
例子中,权重相差数量级。我想训练一个
回归
型模型,它将考虑这些权重。作为我
的
研究
的
一部分,我尝试了以下模型:'BOOSTED_TREE_REGRESSOR','DNN_REGRESSOR‘,’DNN_REGRESSOR‘。在文档(、)中,似乎没有办法
为
权重定义列。(可以为分类器定义“类权重”,这完全
不同
)。 作为我研究
的
一部分,我没有使用权重,
浏览 6
提问于2020-11-11
得票数 1
1
回答
回归
方法
machine-learning
、
regression
我想了解有哪些
回归
方法,以及它们
的
目的。我知道最小二乘法,你可以用它建立一个线性和非线性
的
模型并进行预测。 ARMA模型用于预测平稳时间序列,ARIMA模型用于非平稳时间序列。当大量
的
数据和符号被使用时,神经网络。对于时间序列,LSTM很受欢迎。什么方法适用于解决多元
回归
问题?在什么情况下我应该使用什么方法?
浏览 0
提问于2019-08-10
得票数 1
回答已采纳
3
回答
对于所有线性分类器,预测
算法
都是完全
相同
的
吗?
neural-network
、
linear-regression
、
svm
、
naive-bayes-classifier
、
perceptron
对于所有线性分类器和线性
回归
算法
,预测
算法
都是完全
相同
的
吗?众所周知,任何线性分类器都可以描述
为
:y = w1*x1 + w2*x2 + ... + c确定线性分类器参数
的
方法有两大类(生成和鉴别):https://en.wikipedia.org/wiki线性判别分析(或Fisher线性判别),朴素贝叶斯分类器问:线性分类器只在学习
算法
中有所
不同
浏览 0
提问于2019-01-31
得票数 5
回答已采纳
1
回答
机器学习有哪些
算法
?
机器学习
、
神经网络
、
深度学习
、
人工智能
、
编程算法
浏览 350
提问于2019-02-15
回答已采纳
1
回答
改进小型不平衡数据集
的
机器学习性能
machine-learning
、
classification
、
class-imbalance
我是机器学习
的
研究员。在我
的
项目中,我一直在将ML应用于一个小
的
不平衡数据,其中包括8个特性和297个
实例
,其中44个
为
正
实例
,253个
为
负
实例
。其次,将训练集过度采样
为
均衡训练集,采用随机抽样替换或平滑,并应用信息增益特征选择来减少均衡训练集
的
特征。再次,对训练集进行了logistic
回归
、RBF支持向量机、多项式支持向量机、MLP (1-隐层网络和2-隐层网络)、随机林、
XGBoost<
浏览 0
提问于2022-01-02
得票数 1
3
回答
机器学习中
的
内聚与聚类
machine-learning
、
clustering
、
ensemble-modeling
随着在卡格勒竞赛中不断获胜
的
团体(如
xgboost
学习者
的
组合)
的
提高,使用它已经成为机器学习中
的
一种传统。然而,有些人认为聚类是一种集合形式,我们首先将聚类应用于一个数据集,然后对每个聚类应用一种学习
算法
(进行分类或
回归
)。我理解,如果我们简单地考虑“同质集成”,即我们在每个集群上训练
相同
的
模型,那么聚类可能类似于集成
的
想法。但是我正在寻找聚类
的</e
浏览 0
提问于2016-04-05
得票数 4
1
回答
我应该总是把数据转换成正态分布吗?
deep-learning
、
data-mining
、
data-cleaning
、
transformation
我正在努力理解转变,但这个问题似乎在我和一些人
的
脑海中。如果我们在每个数据科学案例中都有一个数值变量。将数据(日志、电力转换)转换为正态分布将有助于模型更好地学习?以及平稳性。
浏览 0
提问于2022-03-22
得票数 0
回答已采纳
1
回答
从logistic
回归
到
XGBoost
-选择特性来运行模型
feature-selection
、
xgboost
、
logistic-regression
、
boruta
我被要求将
XGBoost
(在R中实现,最多有50个特性)作为一种替代方案,以替代我从包含几千个预测器
的
一组非常大
的
信用风险数据中创建
的
已存在但尚未开发
的
logistic
回归
模型。
回归
最初使用44个预测因子(逐步过程
的
输出
),而最终批准
的
模型仅包括10个。因为我对
XGBoost
相当陌生,所以我想知道特性选择过程是否与
为
逻辑
回归
做准备
的
工作有很大<
浏览 0
提问于2020-11-11
得票数 3
1
回答
在mlr中融合学习者和预处理-使用什么设置?
r
、
benchmarking
、
data-cleaning
、
mlr
我正在进行一个基准分析,比较
不同
的
学习者(logistic
回归
,梯度提升,随机森林,极端梯度提升)与mlr软件包。问题1)我将如何在下面的代码(基于树
的
模型)中将NAs归
为
非常大
的
值?其次,就我正确理解而言,我应该剔除逻
浏览 0
提问于2018-10-21
得票数 0
1
回答
二元
输出
的
logistic
回归
与分类
的
差异
classification
、
bigdata
、
logistic-regression
你好,所有的大数据/统计专家,谢谢
浏览 3
提问于2013-10-14
得票数 1
回答已采纳
2
回答
决策树
回归
器
的
结果是如何连续
的
?
python
、
scikit-learn
、
regression
、
decision-tree
我使用sklearn.tree.DecisionTreeRegressor预测了一个具有两个独立变量
的
回归
问题,即特征"X","Y“和预测
的
可靠变量"Z”。当我绘制树时,叶子似乎与分类树没有太大
不同
。结果不是每个叶上
的
函数,而是每个叶上
的
单个值,就像在分类中一样。 有人能解释一下,为什么这被称为
回归
,为什么它
不同
于分类树吗?因为我似乎误解了sklearn类,有没有python
的
树包,它会进行“真
浏览 46
提问于2021-01-08
得票数 0
3
回答
基于自定义目标的
Xgboost
分位数
回归
machine-learning
、
predictive-modeling
、
xgboost
、
gradient-descent
、
gbm
我是GBM和
xgboost
的
新手,目前在R中使用
xgboost
_0.6-2。建模与标准目标函数"objective" = "reg:linear"运行良好,在阅读这份NIH论文之后,我想使用自定义目标函数运行分位数
回归
,但它精确地迭代了11次,度量不变。我只是简单地删除了GitHub
xgboost
演示后面的'pred‘语句,但恐怕它比这个更复杂,而且我无法找到使用自定义目标函数
的
任何其他示例。或者它是否是
xgboost
浏览 0
提问于2016-12-22
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据挖掘中的利器——XGBoost理论篇
数据分享|python分类预测职员离职:逻辑回归、梯度提升、随机森林、XGB、CatBoost、LGBM交叉验证可视化
机器学习:XGBoost 安装及实战应用
机器学习集成算法:XGBoost思想
流行于机器学习竞赛的Boosting,一文讲透足够了
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券