首页
学习
活动
专区
工具
TVP
发布
社区首页 >问答首页 >如何使用功能缩放?

如何使用功能缩放?
EN

Stack Overflow用户
提问于 2018-05-31 00:25:21
回答 2查看 0关注 0票数 0

我发现SVM(支持向量机)问题中的缩放确实提高了它的性能。我读过这个解释:

“The main advantage of scaling is to avoid attributes in greater numeric ranges dominating those in smaller numeric ranges.”

这个如何理解?

EN

回答 2

Stack Overflow用户

发布于 2018-05-31 08:52:37

特征缩放是应用于优化问题的一般技巧(不仅仅是SVM)。用于求解SVM优化问题的下划线算法是梯度下降法。

我将在这里阐述核心思想(我借用安德鲁的幻灯片)。假设您只有两个参数,其中一个参数可以采用相对较大的值范围。然后,成本函数的轮廓看起来像非常高和瘦的椭圆(参见下面的蓝色椭圆)。你的渐变(渐变路径绘制为红色)可能需要很长时间并来回查找最佳解决方案。

在这里输入图像描述
在这里输入图像描述

相反,如果你缩放了你的功能,则成本函数的轮廓可能看起来像圆圈; 那么渐变可以采用更直的路径并更快地达到最佳点。

在这里输入图像描述
在这里输入图像描述
票数 0
EN

Stack Overflow用户

发布于 2018-05-31 10:14:05

1.为什么特征缩放影响? 应用机器学习算法有一个词,“garbage in, garbage out”。你的功能越真实的反映,你的算法将获得的准确度越高。这也适用于机器学习算法如何处理特征之间的关系。与人脑不同的是,当机器学习算法进行分类时,所有特征都由同一坐标系表示和计算,这在某种意义上建立了先验假设之间的功能(并不真正反映数据本身)。而且大多数算法的本质是找出适合这些数据的特征之间的最合适的权重百分比。所以当这些算法的输入是非标度特征时,大规模数据对权重的影响更大。其实这不是数据本身的反映。 2.为什么通常缩放功能会提高准确度? 无监督机器学习算法中关于超参数(或超超参数)选择(例如,分层Dirichlet过程,hLDA)的常见做法是你不应添加任何有关数据的个人主观假设。最好的办法就是假设他们有平等机会出现。我认为它也适用于此。特征缩放只是假设所有的特征都有平等的机会来影响权重,这更能真实地反映你所了解的有关数据的信息/知识。通常也会导致更好的准确性。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/-100004626

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档