前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >AdaBoost算法(R语言)

AdaBoost算法(R语言)

作者头像
三猫
发布2018-04-10 11:23:43
2.2K0
发布2018-04-10 11:23:43
举报
文章被收录于专栏:机器学习养成记

Boost算法是根据Valiant提出的PAC学习模型衍生得到,是一种可以自适应的改变训练样本的分布,从而使得基分类器聚焦在特殊样本的迭代方法。从基本的Boost算法原理,发展了很多不同的提升算法,如AdaBoost,Gradient Boosting等,本文着重介绍AdaBoost算法。

AdaBoost算法

Bagging算法(R语言)不同的是,AdaBoost给每一个训练样本赋予一个权值,并且可以在每次提升后,自动调整权值。在从原始数据集抽取自助样本集时,权值可以影响抽样分布。并且此算法对每个基分类器进行加权,而不是使用投票的方式得到最终结果。

算法流程

step1

代码语言:javascript
复制
N=原数据集大小;

k=提升轮数;
w={所有样本初始权值1/N};
step2
step3

for i=1 to k{
    根据w生成大小为N的自助样本集D[i];
    D[i]上训练一个基分类器C[i];
    C[i]对所有原始样本进行分类;

    增加错误分类样本权值,减小争取分
    类样本权值,得到新的w;
}

根据权重聚合每轮得到的C[i],得到最终

组合分类器;

不同提升算法的差别主要在于:(1)每轮提升后如何修改样本权值;(2)如何聚合基分类器得到最终分类器。Gradient Boosting算法是通过在迭代时,使损失函数在梯度方向上下降,来保证最好的效果。

R语言实现

adabag包中的boosting()函数可以实现AdaBoost算法,此函数中选取的基分类器为分类树。选取线性分类器与性能评价(R语言)中的数据来进行AdaBoost算法的实例演示,并展示了基分类器个数与误差变化关系图。

  • 导入包与数据,以7:3比例将数据分为训练集与测试集。
代码语言:javascript
复制
library(adabag)
library(ggplot2)
target.url <- 'https://archive.ics.uci.edu/ml/machine-learning-databases/undocumented/connectionist-bench/sonar/sonar.all-data'
data <- read.csv(target.url,header = F)
#divide data into training and test sets
set.seed(1500)
index <- sample(nrow(data),0.7*nrow(data))
train <- data[index,]
test <- data[-index,]
  • 用boosting()函数对训练集进行训练。首先定义基分类器个数为1,通过循环依次增加基分类器个数,直至达到20。基分类器个数通过boosting()中的mfinal参数进行设置。
代码语言:javascript
复制
#AdaBoost algorithm with different numbers of classifiers
error <- as.numeric()
for(i in 1:20){
  data.adaboost <- boosting(V61~., data=train, mfinal=i)
  data.pred <- predict.boosting(data.adaboost,newdata = test)
  error[i] <- data.pred$error
}
  • 对于预测后的结果data.pred,输入data.pred$confusion可以看到预测值与真实结果的混淆矩阵,输入data.pred$error可以看到预测误差。下面,用ggplot2画出误差随基分类器个数变化图像。
代码语言:javascript
复制
error <- as.data.frame(error)
p <- ggplot(error,aes(x=1:20,y=error))+
  geom_line(colour="red", linetype="dashed",size = 1)+
  geom_point(size=3, shape=18)+
  ylim(0.13,0.45) +
  xlab("the number of basic classifiers")+
  theme_bw()+
  theme(panel.grid = element_blank())+
  theme(axis.title = element_text(face = "bold"))
p

图像结果为:

可以看出,随着基分类器增加,误差虽有波动,但有减小趋势,逐渐趋向于0.22左右。

优缺点

1,AdaBoost充分考虑的每个分类器的权重。

2,Boosting通常用于弱学习,即没有分离白噪声的能力。

3,由于倾向于那些被错误分类的样本,Boost技术容易受过拟合影响。

4,训练比较耗时。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-01-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习养成记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档