原文链接:https://mbd.baidu.com/newspage/data/landingshare?pageType=1&context=%7B%22nid%22%3A%22news_9125055021156202135%22%7D
原文标题:机器学习:处理不平衡数据的5个重要技术
新标题:
【注:本文作者原创作品,未经允许禁止抄袭。侵权必究!全网追踪】
本文中将列出一些重要的技术,帮助您处理不平衡的数据。
1、过采样(Oversampling)
此技术用于修改不相等的数据类以创建平衡的数据集。当数据量不足时,过采样法通过增大稀有样本的大小来达到平衡。
过采样的一种主要技术是SMOTE(合成少数过采样技术,Synthetic Minority Over-sampling TEchnique)。在这种技术中,少数类是通过生成合成算例而不是通过替换来进行过采样的,而且对于每一个少数类的观察值,它都计算出k最近邻(k-NN)。但这种方法仅限于假设任意两个正实例之间的局部空间属于少数类、训练数据不是线性可分的情况下,这种假设可能并不总是正确的。根据所需的过采样量,随机选择k-NN的邻域。
优势
优势
优势
优势
优势
·无信息损失
·减少过度采样引起的过拟合。
深入研究SMOTE技术,请点击这里。
2、欠采样(Undersampling)
与过采样不同,这种技术通过减少类的数量来处理一个不平衡的数据集。分类问题有多种方法,如聚类中心和Tomek links。聚类中心方法用K-means算法的聚类中心代替样本的聚类;Tomek link方法去除类之间不需要的重叠,直到所有最小距离的最近邻都属于同一个类。
·可以通过减少训练数据集的数量来改进运行时。
·有助于解决记忆问题
有关欠采样的更多信息,请单击此处。
3、成本敏感学习技术(Cost-Sensitive Learning)
成本敏感学习(CSL)通过最小化总成本来将误分类成本加入考虑因素中,这种技术的目标主要是追求将实例分类为一组已知类时的高精度,它在机器学习算法中发挥着重要的作用,包括现实数据挖掘类应用。
该方法将FP(False Positive)、FN (False Negative)、TP (True Positive)、TN (True Negative)的成本表示为成本矩阵,如下图所示,其中C(i,j)表示对实例进行分类的误分类成本,“i”为预测类,“j”为实际类。这是一个二元分类的成本矩阵的例子。
·该方法避免了参数的预先选择和决策超平面的自动调整。
深入了解CSL技术,请单击这里。
4、集成学习技术(Ensemble Learning)
这个基于集成的方法是处理不平衡数据集的另一种技术,集成技术是将多个分类器的结果或性能结合起来,以提高单个分类器的性能。该方法通过装配不同的分类器来修改单个分类器的归纳能力。它主要结合了多个基础学习器的输出。集成学习有多种方法,如Bagging、Boosting等。
Bagging(Bootstrap Aggregating),试图在较小的数据集上实现相似的学习器,然后取所有预测的平均值。Boosting (Adaboost)是一种迭代技术,它根据最后的分类调整观察值的权重。该方法减少了偏置误差,建立了较强的预测模型。
·这是一个更稳定的模型
·预测结果更好
了解有关此技术的更多信息,请单击此处。
5、组合类方法(Combined Class Methods)
该方法将各种方法组合在一起,能够更好地处理不平衡数据。例如,SMOTE可以与其他方法进行组合,如MSMOTE (Modified SMOTE)、SMOTEENN (SMOTE with edit Nearest neighbor)、SMOTE- tl、SMOTE- el等,来消除不平衡数据集中的噪声。MSMOTE是SMOTE的改进版本,它将少数类的样本分为三类,如安全样本、潜伏噪声样本和边界样本。
·不丢失有用信息
·很好的归纳
【注:本文作者原创作品,未经允许禁止抄袭。侵权必究!全网追踪】
领取专属 10元无门槛券
私享最新 技术干货