首页
学习
活动
专区
工具
TVP
发布

AI机器学习与深度学习算法

专栏作者
223
文章
409692
阅读量
53
订阅数
学习分类 2-4 感知机权重向量的更新
下面直接给出权重向量的更新表达式,然后通过可视化的方式来直观的展示权重向量的更新。
触摸壹缕阳光
2022-11-08
9390
学习回归 1-4 多项式回归
是什么样的函数,不过对于要解决的问题,找到合适的表达式之前,需要不断地去尝试。更高次数的曲线能够更好的拟合所有数据点,甚至能够完全拟合所有的数据点,但是数据点中包含很多的噪声。
触摸壹缕阳光
2022-11-08
4520
学习回归 1-2 最小二乘法
最小二乘法 图片 图片 📷 图片 E(\theta) = \frac{1}{2}\sum_{i = 1}^{n}(y^{(i)} - f_{\theta}(x^{(i)}))^2 图片 📷 图片 📷 下图是 f(x) = \frac{1}{2}x^2 的函数图像,通过函数图像也可以直观的看出,函数图像只是被纵向拉长了,函数在 x = 0 处依然是最小值 0。 📷 References: 《白话机器学习的数学》
触摸壹缕阳光
2022-11-08
2350
学习回归 1-1 设置问题和定义模型
现在有一些关于广告费和点击量的数据,将广告费作为横坐标轴,点击量作为纵坐标轴,其对应关系如下所示。
触摸壹缕阳光
2022-11-08
2100
机器学习入门 3-7 Numpy 中的矩阵运算
显然,在 Python 中,列表 * N 中的 * 运算符为重复操作,将列表中的每个元素重复 N 次。
触摸壹缕阳光
2022-05-25
7430
机器学习入门 3-6 Numpy数组(和矩阵)的合并与分割
在 numpy 中合并数组比较常用的方法有 concatenate、vstack 和 hstack。在介绍这三个方法之前,首先创建几个不同维度的数组:
触摸壹缕阳光
2022-05-25
6360
机器学习入门 3-4 创建Numpy数组(和矩阵)
Notes: zeros 和 ones 函数创建的数组默认为浮点型,而 full 函数 dtype 默认为 None 类型,所以如果在使用 full 不指定 dtype 的情况下,默认为传入 fill_value 值的类型。
触摸壹缕阳光
2022-05-25
5100
从零开始实现数据预处理流程
众所周知,训练机器学习模型的目标是提高模型的泛化能力,通常使用测试集误差来近似模型在现实世界的泛化误差。为了能用机器学习来解决现实世界的问题,我们通常需要对从现实世界中获取的数据进行预处理操作。本文需要使用两个软件包:
触摸壹缕阳光
2021-06-15
1.2K0
机器学习入门 13-6 Ada Boosting和Gradient Boosting
Bagging 集成学习是通过集成多个具有差异性的子模型构成的,这些子模型之间是相互独立的。除了 Bagging 这类集成学习方式之外,还有另外一类非常典型的集成学习方式 Boosting,"boosting" 的中文意思为增强推动,这类集成学习与 Bagging 这类集成学习最大的不同在于,Boosting 中的子模型之间不再是独立的关系,而是一个相互增强的关系,集成的每个模型都在尝试增强(Boosting)整体模型的效果。 Boosting 类的集成学习,主要有:Ada Boosting 和 Gradient Boosting 两种。
触摸壹缕阳光
2021-06-15
8590
机器学习入门 13-5 随机森林和Extra-Trees
前面几个小节介绍了 Bagging 集成学习方法。简单来说,Bagging 方式是通过在样本以及特征空间上随机选取样本以及特征的方式来创建诸多差异性的子模型,然后将这些子模型集成在一起。使用 sklearn 实现 Bagging 这种集成学习,使用的基本分类器都是决策树,这种基本分类器使用决策树的集成学习通常被称为随机森林。 随机森林中的每一棵树都是通过随机的方式来训练生成的,因此具有随机性,这么多树放在一起,就形成了一个森林。前面实现的 Bagging Classifier,无论是 random subspaces classifier 还是 random patches classifier,指定的 base_estimator 参数都是 DecisionTreeClassifier(sklearn 封装的决策树类),因此都可以叫做随机森林。
触摸壹缕阳光
2021-05-11
5K0
机器学习入门 13-4 OOB和关于Bagging的更多讨论
上一小节介绍了 Bagging 这种集成学习方式,我们不再使用不同的机器学习算法进行集成,而是使用同一种机器学习算法,让这个算法在不同的样本上进行训练,而这些不同的样本是通过对全部样本数据有放回取样得到的,这些在不同样本上训练的子模型有一定的差异性。
触摸壹缕阳光
2021-05-11
6150
机器学习入门 13-4 oob(Out-of-Bag)和关于Bagging的更多讨论
上一小节介绍了 Bagging 这种集成学习方式,我们不再使用不同的机器学习算法进行集成,而是使用同一种机器学习算法,让这个算法在不同的样本上进行训练,而这些不同的样本是通过对全部样本数据有放回取样得到的,这些在不同样本上训练的子模型有一定的差异性。
触摸壹缕阳光
2021-05-06
3.3K0
机器学习入门 13-2 Soft Voting Classifier
上一小节介绍了集成学习算法,简单来说让多个机器学习算法在同一个问题上分别进行学习并预测,最终根据 "少数服从多数" 的原则作出最终预测,这种所谓少数服从多数的投票方式称为 Hard Voting。
触摸壹缕阳光
2021-04-07
1.2K0
机器学习入门 13-3 Bagging and Pasting
前两个小节介绍了集成学习,集成学习的思路就是让多个机器学习算法在同一个问题上分别进行学习并预测,最终根据投票 "少数服从多数" 的原则作出最终预测。根据统计学中的大数定理可知,如果想要通过集成学习得到更可信、更好的结果,就需要上千上万甚至更多的机器学习模型(投票者)。
触摸壹缕阳光
2021-04-07
7740
机器学习入门 13-1 什么是集成学习?
本章会介绍机器学习领域中非常重要的集成学习方法。在机器学习中,集成学习方法使用多种学习算法来获得比使用任何单独的学习算法更好的预测性能。
触摸壹缕阳光
2021-02-26
4910
机器学习入门 12-7 决策树的局限性
通过前几个小节绘制使用决策树来解决分类问题的决策边界可以看出,决策树的决策边界都是横平竖直的直线。
触摸壹缕阳光
2021-02-26
1.1K0
机器学习入门 12-6 决策树解决回归问题
前几个小节一直在使用决策树解决分类问题,其实决策树这种思想也可以非常容易的解决回归问题。使用 CART 这种方式构建决策树之后,训练好的决策树中的每一个叶子节点中都会有很多样本点。在预测阶段,如果一个新的测试样本点输入到决策树中,最终会到达某一个叶子节点上。
触摸壹缕阳光
2021-01-29
2.3K0
机器学习入门 12-5 CART与决策树中的超参数
前面介绍的决策树通常还有一个名字,叫做 CART(读音与cut相近)。CART 是 Classification And Regression Tree 的首字母缩写,通过 Classification And Regression Tree 的字面意思可以看出,CART 这种决策树既能够解决分类问题(Classification)也能够解决回归问题(Regression)。每个节点根据某种衡量系统不确定性的指标(信息熵或基尼系数)来找到某个合适的维度 d 以及维度 d 上的阈值 v,根据 d 和 v 对当前节点中的数据进行二分,通过这种方式得到的决策树一定是一颗二叉树,这也是 CART 这种决策树的特点。
触摸壹缕阳光
2021-01-28
1.8K0
机器学习入门 12-4 基尼系数
前几个小节介绍了以信息熵为指标对节点中的数据进行划分,从而构建决策树。作为指标的不只有信息熵还有本小节要介绍的基尼系数(Gini coefficient)。
触摸壹缕阳光
2021-01-18
6.4K0
PyTorch入门笔记-判断张量是否连续
nD 张量底层实现是使用一块连续内存的一维数组,由于 PyTorch 底层实现是 C 语言 (C/C++ 使用行优先的存储方式),所以 PyTorch 中的 nD 张量也按照行优先的顺序进行存储的。
触摸壹缕阳光
2021-01-18
2.1K0
点击加载更多
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档