信用卡通不过?用数据分析技术,带你深度解析信用卡评分体系!

作者 余子娟

本文为CDA志愿者投稿作品,转载需授权

随着互联网金融时代的到来,信用评分体系显得越发重要,本文就解读信用卡评分体系是如何建立的。

客户信息涉及到很多因素,因此许多因素无法在机器学习模型中进行探讨,这里收集了大部分互联网金融公司在信用卡申请时能获取到的信息。

目标

1. 使用机器学习构建信用卡评分模型,获得自变量分箱结果;

2. 并由评分模型得出最优的cutoff值,并对模型进行评价;

3. 再由新的样本集对评分卡进行测试,输出预测结果。

数据

我使用了Kaggle的两个数据集。

Kaggle数据集链接:

https://www.kaggle.com/yuzijuan/credit-card-scoring/data

环境和工具:

Rstudio,plyr,rJava,smbinning,prettyR

我首先对两个数据集进行探索性分析,剔除掉无法纳入模型的变量,例如ID,取值为空的变量,取值仅为一类的变量等;再探索配偶收入变量问题时,由于值绝大部分为0,将该变量变为二分类变量,取值为有收入与无收入;针对异常值过大的变量,采用盖帽法,用99分位点值代替极大异常值,有1分位点值代替极小异常值等等方法,数据清洗完后,再用smbinning包进行cart分箱,带入评分卡模型,获得评分卡,最后将其运用到测试集上。

开始

首先,导入必要的库和数据集,进行探索性数据分析,并剔除掉无法纳入模型的变量。

导入库

导入数据

剔除无法纳入模型的变量

由于评分卡模型一般分数越高,表示信用越好,故需要将信用好的类别得分记为1,信用不好的类别得分记为0。

为更有效分箱,获取了因子型变量集factorval和数值型变量集numericval,分别进行分箱处理。

数值型变量分箱

为更有效进行数据处理,对异常值可以进行盖帽法处理,代码如下:

以年龄数值型变量举例说明,首先查看数据分布情况,由于是因变量为二分类,自变量为数值型,用t检验来检验两分布是否有显著性差别,有显著性差别才能进行分箱,否则分箱结果无意义。

分布情况如上图所示,可以对其进行盖帽法后再t检验和分箱处理。t检验的原假设为两分类组的均值相等,结果表明原假设被拒绝,认为两分布具有显著性差别,可以进行分箱。

用的是smbinning包,这个包中采用的是CART回归树进行属性划分,数值型用函数smbinning(),由树的结果可知,划分点为19,22,32,37,46、59六个值,划分为7个属性区间。

AGE的IV值为0.2004,对AGE的WOE值画图,得到分布呈现单调趋势,表明分箱结果良好,可以纳入模型。

用AGE进行分箱的代码如下:

类推其他连续变量。通过调用numericalval可知共有7个数值型变量,由于两个数值型变量取值过于集中,后续将作为分类变量处理,故得到5个变量的IV值。

因子型变量分箱

以性别分类变量举例说明,首先对性别变量中的异常值进行处理,这种类别变量一般将异常值归为多数这类。查看分布情况可知女性的守信情况似乎比男性好一些。性别变量的WOE值区分得也很明显。

在进行分箱之前同数值型变量一样,要检验两分布是否有显著性差别,由于因变量和自变量均为分类变量,故用卡方检验。原假设为两分布之间无显著性差别,卡方检验结果表明拒绝原假设,认为两样本有显著性差别,可以进行分箱。

分类变量分箱也采用的是smbinning包,不过smbinning包中就是用原分类值进行属性划分,未对划分属性处理,分类变量用的函数是smbinning.factor(),最后得到SEX的IV值为0.0274。具体执行代码如下:

再以配偶收入举例说明,这个变量原本是数值型变量,由于取值过于集中到0,故将该变量转化为分类型变量再处理,处理方式是将取值为0的作为无收入,将取值大于0的作为有收入。

得到混淆矩阵可以看出,有收入的似乎比无收入的守信情况好一些,WOE图的区别也较为明显。

通过卡方检验也可以看出,是否有收入对信用好否有显著性影响,可以进行分箱操作。最后分箱得到IV值为0.0206。具体代码如下:

类推到其他因子型变量,计算出得到所有变量的IV值,存入creditivs中。

建立评分卡

得到所有可分箱变量的IV值,一般认为IV值大于等于0.02的对构建评分卡具有一定的帮助,故以0.02为分界点得到满足条件的变量。最后纳入评分卡模型的变量分别是年龄、工作时长(月)、个人收入、性别、婚姻状态、是否有自用手机、配偶是否有收入。

最后7个自变量的IV值的分布情况如下,可以看到年龄、婚姻状态、工作时长、是否有自用手机这几个变量的IV值较大,表明这几个变量对预测结果影响较大。

数值型分箱变量用函数smbinning.gen(),因子型变量用函数smbinning.factor.gen(),可以生成分箱后的结果,分箱后生成的新列并因变量得到data2数据集,通过逻辑回归,建立评分卡模型。通过逻辑回归结果可以看出分箱后的变量都较为显著,表示分箱结果优良。

生成评分卡是用函数smbinning.scaling(),通过调节pdo,score,odds三个参数,使得评分卡最大值与最小值位于一个较好的范围。这里评分卡的区间为(389,888)。

最后保存为新的csv文件,评分卡就做好了。具体代码如下:

评分卡展示如下,points表示为评分卡的分值。如年龄在45岁的客户,得分为166分。

最后,你总得告诉领导或者同事,到底大于等于多少时,我们认为是好客户,这时还有最后一步,就是求cutoff值,将训练数据通过函数smbinning.scoring.gen()可以得到客户的得分,由于训练数据本身有是否违约这个变量,那么cutoff值有两种选择方式,第一种基于业务发展现状,即公司是需要盈利增收,还是公司需要控制风险,然后商议讨论选择一个cutoff值。下图为客户得分与客户违约的箱体图,1表示好客户,0表示坏客户,可以看出好客户的得分值会高于坏客户的得分值。

对客户得分与客户违约做t检验,检验结果表明,两分布具备显著性差别,可以认为好客户和坏客户的得分会有显著性差别。坏客户的得分集中在578分附近,好客户得分集中于620分附近。

第二种获得cutoff值的方式就是电脑自动计算最优cutoff值,用的函数smbinning.metrics(),从输出的报告可以看出,最优cutoff值为615,这样划分的话,ROC曲线的AUC值为0.657,不算特别优良,准确率(precision)达到87.8%。

具体执行代码如下:

预测

针对新样本,我选择用Excel工具获得信用评分,使用VLOOKUP函数可以很方便地得到想要的数据,评分展示如下,选择cutoff值为615,这里认为(600,620)的客户为关注客户,信用情况中等,620分以上的客户信用情况良好,600分以下的客户信用情况堪忧。

分别用!、√、×来表示中等、优良、较差的信用情况。

结语

本案例不足之处在于:

1. 未对职业代码、商店等级代码等信息进行提炼,可能会忽略掉一些有可能对模型有影响的变量。

2. Smbinning包在数值型变量分箱这一块很强大,但是对分类变量分箱结果不太尽如人意,可以考虑其他分箱方法。

3. 可以整合更多模型,从而提高预测准确率。

原文发布于微信公众号 - CDA数据分析师(cdacdacda)

原文发表时间:2018-06-22

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏专知

【干货】RL-GAN For NLP: 强化学习在生成对抗网络文本生成中扮演的角色

【导读】本文全面系统性梳理介绍了强化学习用于发掘GAN在NLP领域的潜力,请大家阅读。 专知公众号转载已获知乎作者SCUT 胡杨授权。 原文地址:https:/...

2.2K7
来自专栏深度学习之tensorflow实战篇

R语言与机器学习学习笔记(分类算法

logistic回归及其MLE 当我们考虑解释变量为分类变量如考虑一个企业是否会被并购,一个企业是否会上市,你的能否考上研究生 这些问题时,考虑线性概率模型P...

5158
来自专栏大数据文摘

暑期追剧学AI (三) | 10分钟搞定机器学习数学思维:向量和它的朋友们

2035
来自专栏个人分享

最大熵的Java实现

这是一个最大熵的简明Java实现,提供训练与预测接口。训练采用GIS训练算法,附带示例训练集。本文旨在介绍最大熵的原理、分类和实现,不涉及公式推导或其他训练算法...

1923
来自专栏鹅厂优文

游戏人工智能 读书笔记 (六) AI算法简介——演化算法

Chapter 2.8 Hybrid Algorithm: Neuroevolution

2979
来自专栏机器之心

学界 | 从感知机到GAN,机器学习简史梳理

选自chatbotnewsdaily 机器之心编译 参与:蒋思源、李亚洲 机器学习是人工智能的一个重要分支,也是如今学界、产业界的热门研究。公司、高校倾倒了许多...

3309
来自专栏大数据挖掘DT机器学习

机器学习入门和学习系统的设计

作者 RaySaint http://underthehood.blog.51cto.com/2531780/577854 机器学习的定义 《机器学习》By ...

33911
来自专栏PPV课数据科学社区

【学习】R语言与机器学习(分类算法)logistic回归

由于我们在前面已经讨论过了神经网络的分类问题,如今再从最优化的角度来讨论logistic回归就显得有些不合适了。Logistic回归问题的最优化问题可以表述为:...

2914
来自专栏专知

基于TensorFlow的机器学习速成课程25讲视频全集(16-18讲)

1.1K2
来自专栏大数据挖掘DT机器学习

R语言实现混合模型

普通的线性回归只包含两项影响因素,即固定效应(fixed-effect)和噪声(noise)。噪声是我们模型中没有考虑的随机因素。而固定效应是那些可预测因素,而...

9576

扫码关注云+社区

领取腾讯云代金券