首页
学习
活动
专区
工具
TVP
发布

AI机器学习与深度学习算法

专栏作者
223
文章
399396
阅读量
53
订阅数
学习回归 1-4 多项式回归
是什么样的函数,不过对于要解决的问题,找到合适的表达式之前,需要不断地去尝试。更高次数的曲线能够更好的拟合所有数据点,甚至能够完全拟合所有的数据点,但是数据点中包含很多的噪声。
触摸壹缕阳光
2022-11-08
4400
学习回归 1-1 设置问题和定义模型
现在有一些关于广告费和点击量的数据,将广告费作为横坐标轴,点击量作为纵坐标轴,其对应关系如下所示。
触摸壹缕阳光
2022-11-08
2030
机器学习入门 3-6 Numpy数组(和矩阵)的合并与分割
在 numpy 中合并数组比较常用的方法有 concatenate、vstack 和 hstack。在介绍这三个方法之前,首先创建几个不同维度的数组:
触摸壹缕阳光
2022-05-25
6010
机器学习入门 13-6 Ada Boosting和Gradient Boosting
Bagging 集成学习是通过集成多个具有差异性的子模型构成的,这些子模型之间是相互独立的。除了 Bagging 这类集成学习方式之外,还有另外一类非常典型的集成学习方式 Boosting,"boosting" 的中文意思为增强推动,这类集成学习与 Bagging 这类集成学习最大的不同在于,Boosting 中的子模型之间不再是独立的关系,而是一个相互增强的关系,集成的每个模型都在尝试增强(Boosting)整体模型的效果。 Boosting 类的集成学习,主要有:Ada Boosting 和 Gradient Boosting 两种。
触摸壹缕阳光
2021-06-15
8230
机器学习入门 13-5 随机森林和Extra-Trees
前面几个小节介绍了 Bagging 集成学习方法。简单来说,Bagging 方式是通过在样本以及特征空间上随机选取样本以及特征的方式来创建诸多差异性的子模型,然后将这些子模型集成在一起。使用 sklearn 实现 Bagging 这种集成学习,使用的基本分类器都是决策树,这种基本分类器使用决策树的集成学习通常被称为随机森林。 随机森林中的每一棵树都是通过随机的方式来训练生成的,因此具有随机性,这么多树放在一起,就形成了一个森林。前面实现的 Bagging Classifier,无论是 random subspaces classifier 还是 random patches classifier,指定的 base_estimator 参数都是 DecisionTreeClassifier(sklearn 封装的决策树类),因此都可以叫做随机森林。
触摸壹缕阳光
2021-05-11
4.7K0
机器学习入门 13-4 OOB和关于Bagging的更多讨论
上一小节介绍了 Bagging 这种集成学习方式,我们不再使用不同的机器学习算法进行集成,而是使用同一种机器学习算法,让这个算法在不同的样本上进行训练,而这些不同的样本是通过对全部样本数据有放回取样得到的,这些在不同样本上训练的子模型有一定的差异性。
触摸壹缕阳光
2021-05-11
5940
机器学习入门 13-2 Soft Voting Classifier
上一小节介绍了集成学习算法,简单来说让多个机器学习算法在同一个问题上分别进行学习并预测,最终根据 "少数服从多数" 的原则作出最终预测,这种所谓少数服从多数的投票方式称为 Hard Voting。
触摸壹缕阳光
2021-04-07
1.2K0
机器学习入门 13-3 Bagging and Pasting
前两个小节介绍了集成学习,集成学习的思路就是让多个机器学习算法在同一个问题上分别进行学习并预测,最终根据投票 "少数服从多数" 的原则作出最终预测。根据统计学中的大数定理可知,如果想要通过集成学习得到更可信、更好的结果,就需要上千上万甚至更多的机器学习模型(投票者)。
触摸壹缕阳光
2021-04-07
7070
机器学习入门 12-7 决策树的局限性
通过前几个小节绘制使用决策树来解决分类问题的决策边界可以看出,决策树的决策边界都是横平竖直的直线。
触摸壹缕阳光
2021-02-26
1.1K0
PyTorch入门笔记-拼接cat函数
合并是指将多个张量在某个维度上合并成一个张量。张量的合并可以使用拼接(Concatenate)和堆叠(Stack)操作实现,其中拼接操作不会产生新的维度,仅在现有维度上合并,而堆叠会创建新的维度。选择使用拼接还是堆叠操作来合并张量,取决于具体的场景是否需要创建新维度。
触摸壹缕阳光
2021-01-28
5.2K0
机器学习入门 12-5 CART与决策树中的超参数
前面介绍的决策树通常还有一个名字,叫做 CART(读音与cut相近)。CART 是 Classification And Regression Tree 的首字母缩写,通过 Classification And Regression Tree 的字面意思可以看出,CART 这种决策树既能够解决分类问题(Classification)也能够解决回归问题(Regression)。每个节点根据某种衡量系统不确定性的指标(信息熵或基尼系数)来找到某个合适的维度 d 以及维度 d 上的阈值 v,根据 d 和 v 对当前节点中的数据进行二分,通过这种方式得到的决策树一定是一颗二叉树,这也是 CART 这种决策树的特点。
触摸壹缕阳光
2021-01-28
1.7K0
PyTorch入门笔记-复制数据repeat函数
前面提到过 input.expand(*sizes) 函数能够实现 input 输入张量中单维度(singleton dimension)上数据的复制操作。「对于非单维度上的复制操作,expand 函数就无能为力了,此时就需要使用 input.repeat(*sizes)。」
触摸壹缕阳光
2021-01-28
5.5K0
PyTorch入门笔记-复制数据expand函数
当通过增加维度操作插入新维度后,可能希望在新维度上面复制若干份数据,满足后续算法的格式要求。考虑 Y = X@W + b 的例子,偏置 b 插入样本数的新维度后,需要在新维度上复制 Batch Size 份数据,将 shape 变为与 X@W 一致后,才能完成张量相加运算。
触摸壹缕阳光
2021-01-28
6.3K0
PyTorch入门笔记-判断张量是否连续
nD 张量底层实现是使用一块连续内存的一维数组,由于 PyTorch 底层实现是 C 语言 (C/C++ 使用行优先的存储方式),所以 PyTorch 中的 nD 张量也按照行优先的顺序进行存储的。
触摸壹缕阳光
2021-01-18
2.1K0
PyTorch入门笔记-交换维度
交换维度顾名思义就是交换不同的维度,线性代数中矩阵的转置操作可以看成是交换第 0 个和第 1 个维度。比如下图形状为 (3, 4) 的矩阵。
触摸壹缕阳光
2021-01-18
6K0
机器学习入门 12-3 使用信息熵寻找最优划分
在上一小节中介绍了一个新指标:信息熵。通过信息熵可以计算当前数据的不确定度。构建决策树时,初始状态下,根节点拥有全部的数据集。在根节点的基础上,根据划分后左右两个节点中的数据计算得到的信息熵最低为指标,找到一个合适的维度以及在这个维度上的一个阈值,然后根据找到的维度以及对应的阈值将在根节点中的全部数据集划分成两个部分,两个部分的数据分别对应两个不同的节点。对于两个新节点,再以同样的方式分别对两个新节点进行同样的划分,这个过程递归下去就形成了决策树。本小节主要通过代码来模拟使用信息熵作为指标的划分方式。
触摸壹缕阳光
2021-01-18
1.3K0
PyTorch入门笔记-gather选择函数
torch.gather(*input,dim,index,sparse_grad=False, out=None*) 函数沿着指定的轴 dim 上的索引 index 采集输入张量 input 中的元素值,函数的参数有:
触摸壹缕阳光
2020-12-16
3.4K0
PyTorch入门笔记-index_select选择函数
torch.index_select(input,dim,index,out=None) 函数返回的是沿着输入张量的指定维度的指定索引号进行索引的张量子集,其中输入张量、指定维度和指定索引号就是 torch.index_select(input,dim,index,out=None) 函数的三个关键参数,函数参数有:
触摸壹缕阳光
2020-12-02
4.8K1
PyTorch入门笔记-创建张量
Numpy Array 数组和 Python List 列表是 Python 程序中间非常重要的数据载体容器,很多数据都是通过 Python 语言将数据加载至 Array 数组或者 List 列表容器,再转换到 Tensor 类型。(为了方便描述,后面将 Numpy Array 数组称为数组,将 Python List 列表称为列表。)
触摸壹缕阳光
2020-12-02
3.4K0
PyTorch入门笔记-索引和切片
切片其实也是索引操作,所以切片经常被称为切片索引,为了更方便叙述,本文将切片称为切片索引。索引和切片操作可以帮助我们快速提取张量中的部分数据。
触摸壹缕阳光
2020-12-02
3.1K0
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
【玩转EdgeOne】征文进行中
限时免费体验,发文即有奖~
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档