首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

分类还是回归

热烈庆祝2020年的第一个周末即将完结撒花,今天我们聊分类回归。 最近聊到有监督学习,有监督学习用得最多,概念不少,含义还容易混,今天就看到有同学提问: 房价走势预测属于分类问题,还是回归问题?...机器学习都是问题导向的,在有监督学习门下,最热的问题就是这两个,分类问题和回归问题。这两个问题关系很暧昧,既有区别又有联系,联系还异常紧密,不过今天只说区别。...怎么区别一个问题到底是分类问题还是回归问题呢?方法很简单,看待预测的值的类型——如果是离散的属于分类问题,如果是连续的则属于回归问题。...如果要给出的是房价将是升或者是跌,这是离散类型,属于分类问题,而如果要给出一个具体的值,则是回归问题。 下回再聊。

52110

分类-对数几率回归(逻辑回归)算法

文章目录 简介 激活函数 损失函数 优化算法 代码 简介 ---- 对数几率回归(Logistic Regression),也称逻辑回归,虽然名字中含有回归,但其实是一种分类算法。...找一个单调可微函数将分类任务中的真实标记与线性回归模型的预测值联系起来,是一种广义线性回归。 比如给定身高和体重数据,通过线性回归算法训练模型后,可以得到身高体重的回归方程,从而得到预测值。...现需要根据身高体重来判断胖瘦,即二分类任务,也就是要根据回归方程来转换成分类,定义激活函数,转为0~1之间的值,即对数几率回归的输入就是线性回归的输出—— 图片 。...线性回归可参考::回归-线性回归算法(房价预测项目) 激活函数 ---- 激活函数就是将预测值 图片 转换为0/1值。...import train_test_split # 数据处理 iris = datasets.load_iris() # 载入鸢尾花数据集 x = iris.data[:100, ] # 取前100行(二分类

96830
您找到你想要的搜索结果了吗?
是的
没有找到

分类回归树算法---CART

一、算法介绍 分类回归树算法:CART(Classification And Regression Tree)算法也属于一种决策树,和之前介绍了C4.5算法相类似的决策树。...算法在构建分类树和回归树时有些共同点和不同点,例如处理在何处分裂的问题。...剪枝的方法分为前剪枝和后剪枝:前剪枝是指在构造树的过程中就知道哪些节点可以剪掉,于是干脆不对这些节点进行分裂,在分类回归树中使用的是后剪枝方法,后剪枝方法有多种,比如:代价复杂性剪枝、最小误差剪枝、悲观误差剪枝等等...对于分类回归树中的每一个非叶子节点计算它的表面误差率增益值α,可以理解为误差代价,最后选出误差代价最小的一个节点进行剪枝。。 ? ?...分类回归树算法---CART

2.8K80

CART 分类回归

本文结构: CART算法有两步 回归树的生成 分类树的生成 剪枝 ---- CART - Classification and Regression Trees 分类回归树,是二叉树,可以用于分类,也可以用于回归问题...分类树的输出是样本的类别, 回归树的输出是一个实数。 ---- CART算法有两步: 决策树生成和剪枝。...不同的算法使用不同的指标来定义"最好": 分类问题,可以选择GINI,双化或有序双化; 回归问题,可以使用最小二乘偏差(LSD)或最小绝对偏差(LAD)。...这里用代价复杂度剪枝 Cost-Complexity Pruning(CCP) ---- 回归树的生成 回归树模型表示为: ?...---- 分类树的生成 (1)对每个特征 A,对它的所有可能取值 a,将数据集分为 A=a,和 A!=a 两个子集,计算集合 D 的基尼指数: ?

1K30

分类回归树算法---CART

一、算法介绍 分类回归树算法:CART(Classification And Regression Tree)算法也属于一种决策树,和之前介绍了C4.5算法相类似的决策树。...算法在构建分类树和回归树时有些共同点和不同点,例如处理在何处分裂的问题。...因此用这个决策树来对训练样本进行分类的话,你会发现对于训练样本而言,这个树表现完好,误差率极低且能够正确得对训练样本集中的样本进行分类。...剪枝的方法分为前剪枝和后剪枝:前剪枝是指在构造树的过程中就知道哪些节点可以剪掉,于是干脆不对这些节点进行分裂,在分类回归树中使用的是后剪枝方法,后剪枝方法有多种,比如:代价复杂性剪枝、最小误差剪枝、悲观误差剪枝等等...对于分类回归树中的每一个非叶子节点计算它的表面误差率增益值α,可以理解为误差代价,最后选出误差代价最小的一个节点进行剪枝。。 ?

1.6K90

【技术分享】逻辑回归分类

最简单的回归是线性回归,但是线性回归的鲁棒性很差。   逻辑回归是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,其回归方程与回归曲线如下图所示。...2.多元逻辑回归   二元逻辑回归可以一般化为多元逻辑回归用来训练和预测多分类问题。对于多分类问题,算法将会训练出一个多元逻辑回归模型, 它包含K-1个二元回归模型。...14.png 3.逻辑回归的优缺点 优点:计算代价低,速度快,容易理解和实现。 缺点:容易欠拟合,分类回归的精度不高。 4. 实例   下面的例子展示了如何使用逻辑回归。...计算分为两种情况,即二元逻辑回归的情况和多元逻辑回归的情况。虽然多元逻辑回归也可以实现二元分类,但是为了效率,compute方法仍然实现了一个二元逻辑回归的版本。...predictPoint用来预测分类信息。它针对二分类和多分类,分别进行处理。

1.1K10

【机器学习】Logistic 分类回归算法 (二元分类 & 多元分类

该文章收录专栏 ✨— 机器学习 —✨ 【机器学习】logistics分类 一、线性回归能用于分类吗?...y=0 代价函数图像 四、 代价函数与梯度下降 4.1 线性回归与logistic回归的梯度下降规则 五、高级优化算法 六、多元分类:一对多 一、线性回归能用于分类吗?..., 我们将创建一个新的**”伪“训练集**,其中第二类第三类为负类,第一类为正类(如下图右侧) 并拟合一个分类器 h_\theta^1(x) ,接下来我们来实现一个标准的逻辑回归分类器,通过训练,...我们可以得到一个决策边界 同理,将其他两类样本如上创建伪数据集,以及对应的拟合分类器,进行一个标准的逻辑回归分类器,得到对应边界 总而言之,我们拟合出了三个分类器 h_\theta^...i(x) = P(y=i|x;\theta) (i=1,2,3) 每个分类器都对应与之的情况训练,y = 1, 2, 3 的情况 我们训练了逻辑回归分类器 h_\theta^i(x) = P(y

1.9K10

使用KNN进行分类回归

一般情况下k-Nearest Neighbor (KNN)都是用来解决分类的问题,其实KNN是一种可以应用于数据分类和预测的简单算法,本文中我们将它与简单的线性回归进行比较。...KNN模型是一个简单的模型,可以用于回归分类任务。大部分的机器学习算法都是用它的名字来描述的KNN也是一样,使用一个空间来表示邻居的度量,度量空间根据集合成员的特征定义它们之间的距离。...在本文中,我们将重点介绍二元分类,为了防止平局k通常设置为奇数。与分类任务不同,在回归任务中,特征向量与实值标量而不是标签相关联,KNN是通过对响应变量均值或加权均值来进行预测。...通过将我们的测试标签与分类器的预测进行比较,我们发现一个男性测试实例被错误地预测为女性。所以我们的准确率为75%: 使用 KNN 进行回归 KNN 也可以执行回归分析。...总结 KNN是我们在本文中介绍的一个简单但功能强大的分类回归模型。KNN模型是一个懒惰的非参数学习模型;它的参数不是根据训练数据估计出来的。

87610

R实现多分类logistic回归

分类logistic回归 在临床研究中,接触最多的是二分类数据,如淋巴癌是否转移,是否死亡,这些因变量最后都可以转换成二分类0与1的问题。...然后建立二元logistic回归方程,可以得到影响因素的OR值。 那么如果遇到多分类变量,如何进行logistic回归呢?...譬如临床疗效分为好,中,差,三类,或者根据指标进行分类,分为高,中,低三类,我用1、2、3代表作为因变量,进行logistic回归分析。...image.png 接下来,该文,主要介绍,如果因变量为三分类变量,如何进行回归分析及机器学习算法对三分类资料的处理。...关于原理理论部分可参见;这里主要讲如何在R实现三分类回归,计算系数及p值与OR值 1.数据案例 这里主要用到DALEX包里面包含的HR数据,里面记录了职工在工作岗位的状态与年龄,性别,工作时长,评价及薪水有关

89120

本质是分类的“逻辑回归”来了!

机器学习,绕不开预测问题,预测绕不开回归分类。本篇介绍最常用的二分类算法:逻辑回归(Logistics Regression),当然随着算法的发展,它也可用于多分类问题。...回归分类的过渡 ? 何为“逻辑” ? ? ? 理想的最优模型 01 概率预测 ? 02 损失函数 ? ? ? ? 多分类的扩展应用 ?...下期再见 逻辑回归是线性回归分析的扩展,其通过逻辑函数将回归值映射为概率值,实现了对分类问题的处理。通过本次学习,对于逻辑回归,你是否掌握了呢?有任何疑问或建议,给有范君留言吧。...下一篇作者将介绍逻辑回归的好伙伴支持向量机,并详细介绍它们之间的区别与联系,希望你不要错过了哦!

54230

基于逻辑回归分类概率建模

逻辑回归与条件概率 要解释作为概率模型的逻辑回归原理,首先要介绍让步比(odds)。...: 图片 这里的p(y=1|x)是给定特征值x,样本分类标签为1的概率。...预测概率可以通过阈值函数简单的转化为二元输出 y=1, if sigmoid(z)>=0.5 y=0, else 等同于下面的结果 y=1, if z>=0 y=0, else 学习逻辑代价函数的权重 学习了如何使用逻辑回归模型来预测概率和分类标签...sigmoid函数的输出则被解释为样本的分类标签属于1的概率。...预测概率可以通过阈值函数简单的转化为二元输出 等同于下面的结果 学习逻辑代价函数的权重 学习了如何使用逻辑回归模型来预测概率和分类标签,现在来探究一下如何拟合模型的参数。

16020

GBDT的回归、二分类以及多分类教程

Decision Tree:CART回归树  首先,GBDT使用的决策树是CART回归树,无论是处理回归问题还是二分类以及多分类,GBDT使用的决策树通通都是都是CART回归树。...为什么不用CART分类树呢?因为GBDT每次迭代要拟合的是梯度值,是连续值所以要用回归树。   对于回归树算法来说最重要的是寻找最佳的划分点,那么回归树中的可划分点包含了所有特征的所有可取的值。...在分类树中最佳划分点的判别标准是熵或者基尼系数,都是用纯度来衡量的,但是在回归树中的样本标签是连续数值,所以再使用熵之类的指标不再合适,取而代之的是平方误差,它能很好的评判拟合程度。 ? 2....总结 本文章从GBDT算法的原理到实例详解进行了详细描述,但是目前只写了回归问题,GitHub上的代码也是实现了回归、二分类、多分类以及树的可视化。

2.4K10

浅谈机器学习-回归分类的区别

浅层: 两者的的预测目标变量类型不同,回归问题是连续变量,分类问题离散变量。 中层: 回归问题是定量问题,分类问题是定性问题。 高层: 回归分类的根本区别在于输出空间是否为一个度量空间。 ?...解释 分类回归的区别在于输出变量的类型。 定量输出称为回归,或者说是连续变量预测; 定性输出称为分类,或者说是离散变量预测。...分类并没有逼近的概念,最终正确结果只有一个,错误的就是错误的,不会有相近的概念。最常见的分类方法是逻辑回归,或者叫逻辑分类。 本质         分类模型和回归模型本质一样,都是要建立映射关系。...在实际操作中,我们确实常常将回归问题和分类问题互相转化,即分类模型可将回归模型的输出离散化,回归模型也可将分类模型的输出连续化。...(分类问题回归化:逻辑回归回归问题分类化:年龄预测问题——>年龄段分类问题)

19.5K70

深入广义线性模型:分类回归

【导读】本文来自AI科学家Semih Akbayrak的一篇博文,文章主要讨论了广义的线性模型,包括:监督学习中的分类回归两类问题。...虽然关于该类问题的介绍文章已经很多,但是本文详细介绍了几种回归分类方法的推导过程,内容涉及:线性回归、最大似然估计、MAP、泊松回归、Logistic回归、交叉熵损失函数、多项Logistic回归等,...Generalized Linear Models 今天的主题是广义线性模型(GeneralizedLinear Models),一组用于监督学习问题(回归分类)的通用机器学习模型。...权重w迭代更新公式 Logistic回归(Logistic Regression) ---- ---- 上面我提出了回归问题的模型,但是广义线性模型也可以用于分类问题。...交叉熵损失函数(Cross-Entropy Loss Function) 上面定义的损失函数被称为交叉熵损失函数,在分类问题中被广泛使用,我们在统计上显示了我们使用它的原因。

1.8K60

【机器学习界的“Hello World“ 】Logistic 分类回归算法 (二元分类 & 多元分类

该文章收录专栏 ✨— 机器学习 —✨ 【机器学习】logistics分类 一、线性回归能用于分类吗?...同理,将其他两类样本如上创建伪数据集,以及对应的拟合分类器,进行一个标准的逻辑回归分类器,得到对应边界 总而言之,我们拟合出了三个分类器 h_\theta^i(x) = P(y=i|x;\...theta) (i=1,2,3) 每个分类器都对应与之的情况训练,y = 1, 2, 3 的情况 我们训练了逻辑回归分类器 h_\theta^i(x) = P(y=i|x;\theta) (i=1,2,3...) ,用于预测 y= i 的概率,为了做出预测,我们向分类器输入一个 x ,期望获得预测,我们需要在这三个回归分类器中运行输入 x ,选出结果中概率最大的一个(最可信)的那个分类器,就是我们要的类别...) 总而言之,就是逻辑回归模型假设特征与目标变量之间存在线性关系,利用这个线性关系来分类(这个逻辑回归是因为是线性函数,一个线性关系)

27230
领券