对于回归算法,我们要降低模型在未知的数据上的误差;对于分类算法,我们要提高模型在未知数据上的准确率。...SVR:用于标签连续值的回归问题
SVC:用于分类标签的分类问题
Boosting
一堆弱分类器的组合就可以成为一个强分类器;不断地在错误中学习,迭代来降低犯错概率通过一系列的迭代来优化分类结果,每迭代一次引入一个弱分类器...{‘lbfgs’, ‘sgd’, ‘adam’},默认adam,
lbfgs - quasi-Newton方法的优化器:对小数据集来说,lbfgs收敛更快效果也更好
sgd - 随机梯度下降...adam - 机遇随机梯度的优化器
alpha - 正则化项参数,可选的,默认0.0001
learning_rate - 学习率,用于权重更新,只有当solver为’sgd’时使用
max_iter...- 最大迭代次数,默认200
shuffle - 判断是否在每次迭代时对样本进行清洗,默认True,只有当solver=’sgd’或者‘adam’时使用
XGBRegressor梯度提升回归树,也叫梯度提升机