前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >来,先练5个Scikit-learn的算法试试

来,先练5个Scikit-learn的算法试试

作者头像
深度学习与Python
发布2019-06-18 20:57:56
6000
发布2019-06-18 20:57:56
举报

Logistic回归

Logistic回归为概率型非线性回归模型,是研究二分类观察结果

与一些影响因素

之间关系的一种多变量分析方法。可用于数据分类和曲线拟合回归。

from sklearn.ensemble import LogisticRegression

softmax_reg = LogisticRegression(multi_class =“multinomial”,solver =“lbfgs”,C = 5) 
softmax_reg.fit(X,Y) 
pred = softmax_reg.predict(X_test) 

支持向量机

支持向量机通过构建超平面来对数据集进行分类工作,其内部可采用不同的核函数以满足不同数据分布,目前支持向量机怕是大家最熟悉的一种机器学习算法了吧。

from sklearn.ensemble import svm

clf = svm.SVC(gamma ='scale',decision_function_shape ='ovo') 
clf.fit(X,Y) 
pred = clf.predict(X_test) 

朴素贝叶斯

朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法。朴素贝叶斯也许是本文中讨论的所有模型中最简单的一个。朴素贝叶斯非常适合少量数据的参数估计。朴素贝叶斯应用贝叶斯定理,其假设每个特征之间具有条件独立性。

from sklearn.ensemble import GaussianNB

clf = GaussianNB() 
clf.fit(X,Y) 
pred = clf.predict(X) 

随机森林

随机森林是一种基于Bagging的集成学习模型。通过使用Bootstraping从原数据集随机抽取n个子数据集来训练n颗决策树,然后再将n颗决策树结果结合起来形成准确率更高的强学习器。特别是在Kaggle比赛中。随机森林通过在数据集的子样本上拟合决策树分类器。然后综合分类性能以获得高精度,同时避免过度拟合。

from sklearn.ensemble import RandomForestClassifier

clf = RandomForestClassifier(n_estimators = 100,max_depth = 2,random_state = 0) 
clf.fit(X,Y) 
pred = clf.predict(X)

AdaBoost

AdaBoost是一种集成学习模型分类器,是典型的Boosting算法,属于Boosting家族的一员。AdaBoost思想是将关注点放在被错误分类的样本上,减小上一轮被正确分类的样本权值,提高那些被错误分类的样本权值。然后,再根据所采用的基学习器进行学习训练。其在sklearn中调用的示例代码如下:

from sklearn.ensemble import AdaBoostClassifier

clf = AdaBoostClassifier(n_estimators = 100) 
clf.fit(X,Y) 
pred = clf.predict(X)

总结

sklearn是机器学习的一个最佳选择,里面有常用的分类算法、回归算法、无监督算法以及数据处理接口,调用只需几行代码就可以实现你的机器学习模型。通过本次的5个示例,相信你已经能基本掌握sklearn中算法调用方式,在需要调用其它算法时方式都是一样的,希望能对你的机器学习之路有所帮助。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-04-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习与python 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档