比赛目的
Tip:本次新人赛是Datawhale与天池联合发起的0基础入门系列赛事第四场 —— 零基础入门金融风控之贷款违约预测挑战赛。 赛题以金融风控中的个人信贷为背景,要求选手根据贷款申请人的数据信息预测其是否有违约的可能,以此判断是否通过此项贷款,这是一个典型的分类问题。通过这道赛题来引导大家了解金融风控中的一些业务背景,解决实际问题,帮助竞赛新人进行自我练习、自我提高。
比赛内容
赛题以预测金融风险为任务,数据集报名后可见并可下载,该数据来自某信贷平台的贷款记录,总数据量超过120w,包含47列变量信息,其中15列为匿名变量。为了保证比赛的公平性,将会从中抽取80万条作为训练集,20万条作为测试集A,20万条作为测试集B,同时会对employmentTitle、purpose、postCode和title等信息进行脱敏。通过这道赛题来引导大家走进金融风控数据竞赛的世界,主要针对于于竞赛新人进行自我练习、自我提高。
一般而言,对于数据在比赛界面都有对应的数据概况介绍(匿名特征除外),说明列的性质特征。了解列的性质会有助于我们对于数据的理解和后续分析。 Tip:匿名特征,就是未告知数据列所属的性质的特征列。
train.csv
竞赛采用AUC作为评价指标。AUC(Area Under Curve)被定义为 ROC曲线 下与坐标轴围成的面积。
分类算法常见的评估指标如下:
1、混淆矩阵(Confuse Matrix)
2、准确率(Accuracy) 准确率是常用的一个评价指标,但是不适合样本不均衡的情况。Accuracy=TP+TNTP+TN+FP+FN
3、精确率(Precision) 又称查准率,正确预测为正样本(TP)占预测为正样本(TP+FP)的百分比。Precision=TPTP+FP
4、召回率(Recall) 又称为查全率,正确预测为正样本(TP)占正样本(TP+FN)的百分比。Recall=TPTP+FN
5、F1 Score 精确率和召回率是相互影响的,精确率升高则召回率下降,召回率升高则精确率下降,如果需要兼顾二者,就需要精确率、召回率的结合F1 Score。F1−Score=21Precision+1Recall
6、P-R曲线(Precision-Recall Curve) P-R曲线是描述精确率和召回率变化的曲线
7、ROC(Receiver Operating Characteristic)
TPR:在所有实际为正例的样本中,被正确地判断为正例之比率。TPR=TPTP+FNFPR:在所有实际为负例的样本中,被错误地判断为正例之比率。FPR=FPFP+TN
8、AUC(Area Under Curve) AUC(Area Under Curve)被定义为 ROC曲线 下与坐标轴围成的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围在0.5和1之间。AUC越接近1.0,检测方法真实性越高;等于0.5时,则真实性最低,无应用价值。
对于金融风控预测类常见的评估指标如下:
1、KS(Kolmogorov-Smirnov) KS统计量由两位苏联数学家A.N. Kolmogorov和N.V. Smirnov提出。在风控中,KS常用于评估模型区分度。区分度越大,说明模型的风险排序能力(ranking ability)越强。 K-S曲线与ROC曲线类似,不同在于
KS(%) | 好坏区分能力 |
---|---|
20以下 | 不建议采用 |
20-40 | 较好 |
41-50 | 良好 |
51-60 | 很强 |
61-75 | 非常强 |
75以上 | 过于高,疑似存在问题 |
2、ROC
3、AUC
读取数据有两种方法,第一种通过wget命令从链接直接下载数据到dsw,另一种就是可以直接利用pandas读取链接数据。
感想和思考
刚刚接触到这个方面,有很多知识还不知道,但我知道就是要现把python先学会,在建立一个相应模型来预测,数据的分析将会用到wegt和dsw,还有就是学的建立模型,然后优化模型再代码实现的能力,除了可以在一个模式识别的领域来起作用,还可以将这个过程训练出的能力迁移到风险控制领域,在一个领域训练出来的能力,不应该只被这个领域所局限,而是应该退一步,把多个领域融进视野中,将能力融会贯通,跳出手高眼低的低阶境界。
内容参考于:金融风控task1