前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >大话机器学习之数据预处理与数据筛选

大话机器学习之数据预处理与数据筛选

作者头像
钱塘小甲子
发布2019-01-29 09:38:41
4870
发布2019-01-29 09:38:41
举报
文章被收录于专栏:钱塘小甲子的博客

      数据挖掘和机器学习这事,其实大部分时间不是在做算法,而是在弄数据,毕竟算法往往是现成的,改变的余地很小。

      数据预处理的目的就是把数据组织成一个标准的形式。

1.归一化

      归一化通常采用两种方法。

      a.最简单的归一化,最大最小值映射法

      P_New=(P-MI)/(MA-MI)

      P是原始数据,MI是这一属性中的最小值,MA是这一属性中的最大值。这样处理之后,所有的值都会限定在0-1之间。

      b.标准差标准化

      P_New=(P-AVG(P))/SD(P)       其中AVG(P)为变量均值,SD(P)为标准差.

      这个方法还有一个好处,就是当你发现如此处理之后,有的数字很离奇,就可以认为是异常值,直接剔除。

2、离散化

      如果你的数值是连续的,有时候不是那么好处理,比如年龄。往往把数字离散成小孩,少年,青年等等更加有意义。

3、缺失值问题

      这个首先要考虑缺失值的多少,如果过多,不如直接删除属性;如果在可接受范围内,则利用平均值、最大值或者别的适合的方案来补充。

      当然还有一种方法,先用方法1对不缺失的记录建模,然后用该方法预测缺失值;然后用方法2最终建模。当然,这里存在许多问题,比如方法一的准确度、方法1和方法2使用同一种方法的时候产生的信息冗余。

4、异常数据点

      实际的数据集有很多是异常数据,可能是由于录入错误或者采集中受到干扰等因素产生的错误数据。通常剔除异常数据的方法最常用的有如下两种。

      寻找附近的点,当最近的点的距离大于某一个阈值的时候,就认为是异常点。当然也可以在限定距离内,包含的数据点少于某个数目的时候认为是异常点。

      前者是基于距离,后者是基于密度。当然,还可以把两者结合,指定距离的同时也指定数目,这叫做COF。

5、数据的筛选

      我们在预处理好数据之后,有时候数据的维度是很大的,出于经济性考虑,当然,需要降维或者特征选择。有时候降为和特征选择也会增加准确度。

      降维通常使用PCA,主成分分析。直观上,就是把几个变量做线性组合,变成一个变量;特征选择则比较简单,就是选择相关性强的特征。

      当然,PCA其实设计到矩阵的奇异值分解,具体的数学原理就不展开了。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016年06月14日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档