首页
学习
活动
专区
工具
TVP
发布

红色石头的机器学习之路

专栏作者
237
文章
218317
阅读量
54
订阅数
【吐血整理】一份完备的集成学习手册!(附Python代码)
试想一下,当你想买一辆新车时,你会直接走到第一家汽车商店,并根据经销商的建议购买一辆车吗?这显然不太可能。
红色石头
2022-01-12
3350
GBDT!深入浅出详解梯度提升决策树
Random Forest的算法流程我们之前已经详细介绍过,就是先通过bootstrapping“复制”原样本集D,得到新的样本集D’;然后对每个D’进行训练得到不同的decision tree和对应的gt;最后再将所有的gt通过uniform的形式组合起来,即以投票的方式得到G。这里采用的Bagging的方式,也就是把每个gt的预测值直接相加。现在,如果将Bagging替换成AdaBoost,处理方式有些不同。首先每轮bootstrap得到的D’中每个样本会赋予不同的权重;然后在每个decision tree中,利用这些权重训练得到最好的gt;最后得出每个gt所占的权重,线性组合得到G。这种模型称为AdaBoost-D Tree。
红色石头
2022-01-12
2240
通俗解释随机森林算法
首先我们来复习一下之前介绍过的两个机器学习模型:Bagging和Decision Tree。Bagging是通过bootstrap的方式,从原始的数据集D中得到新的D^;然后再使用一些base algorithm对每个D^都得到相应的gt;最后将所有的gt通过投票uniform的形式组合成一个G,G即为我们最终得到的模型。Decision Tree是通过递归形式,利用分支条件,将原始数据集D切割成一个个子树结构,长成一棵完整的树形结构。Decision Tree最终得到的G(x)是由相应的分支条件b(x)和分支树Gc(x)递归组成。
红色石头
2022-01-12
2570
一文详解决策树算法模型
上文我们主要介绍了Adaptive Boosting。AdaBoost演算法通过调整每笔资料的权重,得到不同的hypotheses,然后将不同的hypothesis乘以不同的系数α进行线性组合。这种演算法的优点是,即使底层的演算法g不是特别好(只要比乱选好点),经过多次迭代后算法模型会越来越好,起到了boost提升的效果。本节课将在此基础上介绍一种新的aggregation算法:决策树(Decision Tree)。
红色石头
2022-01-12
3140
浅谈对机器学习的理解
在网上看到关于一篇ML的文章,很不错,转载过来共勉.
红色石头
2019-05-25
7350
开源!《AI 算法工程师手册》中文教程正式发布!
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/red_stone1/article/details/90039822
红色石头
2019-05-25
5270
机器学习笔试题精选(五)
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/red_stone1/article/details/81296337
红色石头
2019-05-25
1.2K0
中国台湾大学林轩田机器学习技法课程学习笔记10 -- Random Forest
上节课我们主要介绍了Decision Tree模型。Decision Tree算法的核心是通过递归的方式,将数据集不断进行切割,得到子分支,最终形成数的结构。C&RT算法是决策树比较简单和常用的一种
红色石头
2017-12-28
8140
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档