首页
学习
活动
专区
工具
TVP
发布

AI机器学习与深度学习算法

专栏作者
223
文章
406185
阅读量
53
订阅数
学习分类 2-5 线性可分
感知机非常简单同时又很容易理解,但是相对应的,缺点也很多。感知机最大的缺点就是它只能解决线性可分的问题。
触摸壹缕阳光
2022-11-08
3040
学习回归 1-4 多项式回归
是什么样的函数,不过对于要解决的问题,找到合适的表达式之前,需要不断地去尝试。更高次数的曲线能够更好的拟合所有数据点,甚至能够完全拟合所有的数据点,但是数据点中包含很多的噪声。
触摸壹缕阳光
2022-11-08
4490
学习回归 1-1 设置问题和定义模型
现在有一些关于广告费和点击量的数据,将广告费作为横坐标轴,点击量作为纵坐标轴,其对应关系如下所示。
触摸壹缕阳光
2022-11-08
2090
机器学习入门 3-7 Numpy 中的矩阵运算
显然,在 Python 中,列表 * N 中的 * 运算符为重复操作,将列表中的每个元素重复 N 次。
触摸壹缕阳光
2022-05-25
7390
机器学习入门 3-6 Numpy数组(和矩阵)的合并与分割
在 numpy 中合并数组比较常用的方法有 concatenate、vstack 和 hstack。在介绍这三个方法之前,首先创建几个不同维度的数组:
触摸壹缕阳光
2022-05-25
6220
机器学习入门 13-7 Stacking
13.2 小节介绍过一种叫做 Voting Classifier 集成学习的方法。这种方法的思路非常简单,比如有三个模型,将数据集在每一个模型上进行预测,最后综合三个模型的结果。
触摸壹缕阳光
2022-04-27
4710
从零开始实现数据预处理流程
众所周知,训练机器学习模型的目标是提高模型的泛化能力,通常使用测试集误差来近似模型在现实世界的泛化误差。为了能用机器学习来解决现实世界的问题,我们通常需要对从现实世界中获取的数据进行预处理操作。本文需要使用两个软件包:
触摸壹缕阳光
2021-06-15
1.2K0
机器学习入门 13-6 Ada Boosting和Gradient Boosting
Bagging 集成学习是通过集成多个具有差异性的子模型构成的,这些子模型之间是相互独立的。除了 Bagging 这类集成学习方式之外,还有另外一类非常典型的集成学习方式 Boosting,"boosting" 的中文意思为增强推动,这类集成学习与 Bagging 这类集成学习最大的不同在于,Boosting 中的子模型之间不再是独立的关系,而是一个相互增强的关系,集成的每个模型都在尝试增强(Boosting)整体模型的效果。 Boosting 类的集成学习,主要有:Ada Boosting 和 Gradient Boosting 两种。
触摸壹缕阳光
2021-06-15
8420
机器学习入门 13-5 随机森林和Extra-Trees
前面几个小节介绍了 Bagging 集成学习方法。简单来说,Bagging 方式是通过在样本以及特征空间上随机选取样本以及特征的方式来创建诸多差异性的子模型,然后将这些子模型集成在一起。使用 sklearn 实现 Bagging 这种集成学习,使用的基本分类器都是决策树,这种基本分类器使用决策树的集成学习通常被称为随机森林。 随机森林中的每一棵树都是通过随机的方式来训练生成的,因此具有随机性,这么多树放在一起,就形成了一个森林。前面实现的 Bagging Classifier,无论是 random subspaces classifier 还是 random patches classifier,指定的 base_estimator 参数都是 DecisionTreeClassifier(sklearn 封装的决策树类),因此都可以叫做随机森林。
触摸壹缕阳光
2021-05-11
4.9K0
机器学习入门 13-4 OOB和关于Bagging的更多讨论
上一小节介绍了 Bagging 这种集成学习方式,我们不再使用不同的机器学习算法进行集成,而是使用同一种机器学习算法,让这个算法在不同的样本上进行训练,而这些不同的样本是通过对全部样本数据有放回取样得到的,这些在不同样本上训练的子模型有一定的差异性。
触摸壹缕阳光
2021-05-11
6000
机器学习入门 13-2 Soft Voting Classifier
上一小节介绍了集成学习算法,简单来说让多个机器学习算法在同一个问题上分别进行学习并预测,最终根据 "少数服从多数" 的原则作出最终预测,这种所谓少数服从多数的投票方式称为 Hard Voting。
触摸壹缕阳光
2021-04-07
1.2K0
机器学习入门 13-3 Bagging and Pasting
前两个小节介绍了集成学习,集成学习的思路就是让多个机器学习算法在同一个问题上分别进行学习并预测,最终根据投票 "少数服从多数" 的原则作出最终预测。根据统计学中的大数定理可知,如果想要通过集成学习得到更可信、更好的结果,就需要上千上万甚至更多的机器学习模型(投票者)。
触摸壹缕阳光
2021-04-07
7540
机器学习入门 12-7 决策树的局限性
通过前几个小节绘制使用决策树来解决分类问题的决策边界可以看出,决策树的决策边界都是横平竖直的直线。
触摸壹缕阳光
2021-02-26
1.1K0
机器学习入门 12-6 决策树解决回归问题
前几个小节一直在使用决策树解决分类问题,其实决策树这种思想也可以非常容易的解决回归问题。使用 CART 这种方式构建决策树之后,训练好的决策树中的每一个叶子节点中都会有很多样本点。在预测阶段,如果一个新的测试样本点输入到决策树中,最终会到达某一个叶子节点上。
触摸壹缕阳光
2021-01-29
2.3K0
机器学习入门 12-5 CART与决策树中的超参数
前面介绍的决策树通常还有一个名字,叫做 CART(读音与cut相近)。CART 是 Classification And Regression Tree 的首字母缩写,通过 Classification And Regression Tree 的字面意思可以看出,CART 这种决策树既能够解决分类问题(Classification)也能够解决回归问题(Regression)。每个节点根据某种衡量系统不确定性的指标(信息熵或基尼系数)来找到某个合适的维度 d 以及维度 d 上的阈值 v,根据 d 和 v 对当前节点中的数据进行二分,通过这种方式得到的决策树一定是一颗二叉树,这也是 CART 这种决策树的特点。
触摸壹缕阳光
2021-01-28
1.7K0
机器学习入门 12-3 使用信息熵寻找最优划分
在上一小节中介绍了一个新指标:信息熵。通过信息熵可以计算当前数据的不确定度。构建决策树时,初始状态下,根节点拥有全部的数据集。在根节点的基础上,根据划分后左右两个节点中的数据计算得到的信息熵最低为指标,找到一个合适的维度以及在这个维度上的一个阈值,然后根据找到的维度以及对应的阈值将在根节点中的全部数据集划分成两个部分,两个部分的数据分别对应两个不同的节点。对于两个新节点,再以同样的方式分别对两个新节点进行同样的划分,这个过程递归下去就形成了决策树。本小节主要通过代码来模拟使用信息熵作为指标的划分方式。
触摸壹缕阳光
2021-01-18
1.3K0
机器学习入门 12-1 什么是决策树?
决策树的思想在我们的日常生活中非常常见,甚至在很多时候我们会不自觉的使用这种思路来进行一些判断。
触摸壹缕阳光
2020-11-05
6010
机器学习入门 11-9 SVM思想解决回归问题
本系列是《玩转机器学习教程》一个整理的视频笔记。本小节简单介绍如何使用支撑向量机的思想来解决回归问题,最后通过sklearn封装好的LinearSVR类实现波士顿房价的预测。
触摸壹缕阳光
2020-10-26
1K0
机器学习入门 11-8 RBF核函数中的gamma
本系列是《玩转机器学习教程》一个整理的视频笔记。本小节将通过实践应用sklearn为我们封装的高斯核的SVM算法来进行具体的分类并解释分类决策边界的几何意义,着重实验不同的gamma取值对最终分类决策边界的影响。
触摸壹缕阳光
2020-10-26
4.2K0
机器学习入门 11-6 到底什么是核函数
本系列是《玩转机器学习教程》一个整理的视频笔记。在上一小节具体的编程实践中看到,在SVM算法中有一个非常重要的概念叫做核函数。本小节以简单的多项式核函数为例介绍什么是核函数。
触摸壹缕阳光
2020-08-10
1.4K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档