
实现思路:在每一轮训练中,记录每一次由$f(x) = \sum_{m=1}^{i-1}\alpha_mG_m(x)$【错误\正确】分类的样本,在加入新的弱学习器中【提高\降低】分类【错误\正确】样本的权值(<u>即改变样本的比例,类似过采样与降采样</u>)
可以发现,指数损失函数在【正确\错误】分类的样本的值【小于\大于】1,正好符合Adaboost加法模型的实现思路,<u>在加入新的弱学习器中【提高\降低】分类【错误\正确】样本的权值</u>,所以第$m$个弱分类器,第$i$个样本的权值更新可以设计为:
在Adaboost模型中,$f{m-1}(x_i) = a{m-1}G_{m-1}$,所以,权值更新的公式为:
为了加强不同弱分类器之间的依赖性,在更新权值时是在上一个弱分类器模型的基础上进行更新的:
最后加入$Z_{m-1}$,得到最终的权值更新式子:
其中,规范化因子$Z_{m-1}$表示为:
分类正确时,$yi=G{m-1}(xi)$, $exp(-a{m-1}yiG{m-1}(xi))=exp(-a{m-1}) < 1$, 其中$a{m-1}>1$,对应正确样本的权值会减少,同理当错误分类时,$exp(-a{m-1}) > 1$,对应样本的权值增加
目标损失函数:
在模型优化更新权重的过程中,并不是与传统模型一样采用梯度下降法,因为弱分类器的数量多,更新的参数多,难以实现,在Adaboost模型中采用的前向分布算法,只更新当前弱分类器$G_m$的参数,优化目标:
对$a$求导的结果,表示损失最小的$\alpha$:
其中$e_m$表示误差率:
最后还需要实现归一化:
model = DecisionTreeClassifier(max_depth=1)
model.fit(X, y, sample_weight=w)
y_pred = model.predict(X)权重初始化:$w_{1,i}=\frac{1}{N}$
# 权重初始化
w = np.ones(n_samples) / n_samples # 初始化权重误差率计算:$em = \frac{\sum{Gm(x_i) \neq y_i}\omega{mi}}{\sum_{i=1}^N}\omega_i^{m}$
弱分类器$\alpha$更新:$\alpha_m = \frac{1}{2}log\frac{1-e_m}{e_m}$
# 误差率计算以及更新权重
err = np.sum(w * (y_pred != y)) / np.sum(w)
alpha = 0.5 * np.log((1 - err) / max(err, 1e-10))样本权重更新:$w{m,i} = \frac{w{m-1,i}}{z{m-1}}exp(-a{m-1}yiG{m-1}(x_i))$
# 更新样本权重
norm = np.sum(w)
w = w * np.exp(-alpha * y * y_pred)
w /= norm for alpha, model in zip(self.alphas, self.models):
pred += alpha * model.predict(X)
return np.sign(pred)class AdaBoost:
def __init__(self, n_estimators=50):
self.n_estimators = n_estimators
self.alphas = [] # 每个弱分类器的权重
self.models = [] # 弱分类器列表
def fit(self, X, y):
n_samples, n_features = X.shape
# 初始化样本权重
w = np.ones(n_samples) / n_samples # 初始化权重
for _ in range(self.n_estimators):
# 使用样本权重训练一个弱分类器
model = DecisionTreeClassifier(max_depth=1)
model.fit(X, y, sample_weight=w)
y_pred = model.predict(X)
# 计算分类误差率
err = np.sum(w * (y_pred != y)) / np.sum(w)
if err >= 0.5:
break
# 计算弱分类器的权重
alpha = 0.5 * np.log((1 - err) / max(err, 1e-10))
self.alphas.append(alpha)
self.models.append(model)
norm = np.sum(w)
# 更新样本权重
w = w * np.exp(-alpha * y * y_pred)
w /= norm
def predict(self, X):
pred = np.zeros(X.shape[0])
for alpha, model in zip(self.alphas, self.models):
pred += alpha * model.predict(X)
return np.sign(pred)原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。