- 金融管理研究(第11辑)
- 王周伟
- 9465字
- 2021-03-29 10:53:57
基于决策树信用卡风险管理的研究
李杨芝
摘要:自从信用卡引入我国以来,其发展速度与日俱增。伴随着我国经济的发展和国民消费习惯的改变,信用卡业务将成为人们生活中不可或缺的一部分。为了让信用卡更好地为经济发展和人们生活服务,信用风险管理就显得尤为重要。因为信用风险是信用卡业务的主要风险。所以发卡机构应在信用风险管理方面加强控制,建立一套合理有效、科学完善的信用评价体系。一般情况下,信用评价会将客户划分为“好”或者“坏”客户。根据客户的个人信息和历史数据,通过数学方法进行建模,进而来预测信用卡客户的违约风险。在这方面,决策树算法正确率高,而且直观简单。本文使用决策树作为建立信用评价模型的方法。本文首先对涉及的文献进行了整理归纳,将信用卡风险管理理论、决策树的理论框架进行结合,分析了决策树、信用卡业务中信用风险的特征。采用决策树C4.5、C5.0、rpart、xgboost、组合预测模型算法进行建模,并且和支持向量机进行了比较。采用决策树方法构建的个人信用评价模型具有精度高、操控性强,并且在实践中使用广泛等诸多优点。
关键词:信用卡;决策树;风险管理
1 引言
近年来,信用卡业务发展迅速。伴随着居民消费习惯的改变和人均收入的提高,信用卡将继续保持着增长势头。但是随之而来的信用风险也将成为发卡机构所面临的主要风险。近年来我国经济处于转型阶段,经济承受着下行压力,信用卡贷款的资产质量也慢慢承受着压力。居民的消费卡使用以及还款行为与公司层面的经营状况有很高的相关性。但银行发行信用卡数量巨大,极度审慎的资质审核成本过高,因此客户与银行双方存在信息不对称的博弈。往往银行都是在恶意透支及违约事件发生后才进行业务干预,但这事后的亡羊补牢无法追回全部损失,反而很大程度上会造成较大损失。因此,如何有效地对信用卡客户进行风险识别和检测,控制潜在的损失,银行需要在理论与实践两方面进行努力。
这样,一方面对于银行风险控制体系的职能有促进,对银行自身的持续经营与盈利能力有提高;另一方面,银行安全体系的逐步构建与完善使得银行自身更加适应快速发展的金融市场和经济全球化进程,能更好地向经济发达体的商业银行看齐,对于我国银行的全球发展战略有很大帮助。
国际市场中的信用卡发展历史较为悠久,发达金融体系中都有相对成熟的信用卡风险鉴别与检测的模型。但鉴于我国信用卡发展历史较短,国际通用的风险计量模型并不能适用于中国信用卡市场,因此我国银行业急需探索出适合我国国情的信用卡风险管理计量体系。
2 文献综述
2.1 关于信用卡风险管理的文献综述
Stiglitz和Weiss(1989)[1]研究发现信息不对称的因素导致银行与客户存在极端不平等的契约关系,客户融资行为带来的潜在收益没有上限约束,但损失存在确定下限,银行角度与此相反。这种不平等带来的期望收益使得客户“道德风险”骤升。银行一般的解决手段只能是提高借款利率,但这种方法的约束仍然有限,并且会损失优质客户资源,造成“逆向选择”。
Elizabeth Langwith(2005)[2]的研究发现影响信用卡业务风险高低的主因为融资利率水平过高。银行通过降低持卡人承担的借款利率、平衡自身发展规模能够降低其所面临的信用风险。
Nadia Massoud和Anthony Saunders(2011)[3]的研究发现信用卡惩罚性费用能一定程度上反映银行市占率,并且该费用能体现并替代市场实际利率。
胡勇、张永青(2006)[4]的研究主要聚焦于个人消费信贷,并发现机构间风险信息共享、机构内管理水平提升、行业间征信系统建立以及提高金融科技化水平都能有效降低信用风险。对于已存在的过高风险资产,应通过资产证券化手段及时转移,降低银行经营风险。
闫天兵、沈丽(2008)[5]通过研究信用卡业务盈利方式提出信用评分机制模型,为银行量化风险提出指导。
王保艳(2010)[6]基于法律政策角度提出银行信用卡业务风险控制应从提高监管力度与效度、完善法律政策体系着手。
魏鹏(2011)[7]通过研究外国市场信用卡业务的风险特征结合中国市场现状,对行业内相互促进、行业间合作共赢以及银行内部管理机制等方面提出建议。
2.2 关于决策树研究的文献综述
决策树模型是最为常用的数据挖掘模型。以树状结构表现各属性变量的重要程度,从大量包含白色噪声的原始数据集中发现隐含的信息和规律。
H unt.E.B提出了决策树算法的基础—CLS,增加逻辑判定的结点数量来丰富原始空的决策树,这一过程一直进行直到所有训练集数据被正确分类。J. R.Quinlan在ID3基础上提出C4.5,该方法着重改进了缺失值处理、噪声数据适用性以及决策树剪枝规则。Leo Breiman等在ID3基础上又提出CART算法,该方法由于能够应用在数据挖掘和预测中,因此对于复杂且量级大的数据具有很大的优越性。
近年来国内对数据挖掘的研究也日益深入,研究的主要方向在于各因素的权重划分和如何选择节点。黄定轩(2003)[8]认为在处理多因素问题研究中各因素的权重分配对数据挖掘的精度和效率有重要影响,因此他提出使用客观信息熵对多因素权重进行分配的方法,通过对大量的数据模糊聚类,运用粗糙集理论中的信息熵概念对实际数据中进行客观地评价,确定各因素的权重。张品(2012)[9]对多重组合分类决策树算法进行了改进,他提出了基于遗传算法的方法,决策树的分类精度有显著的提高。姚亚夫、邢留涛(2011)[10]对连续数值的属性最佳分割阈值提出新的选择算法,基于连续变量最佳割点在边界的性质,选择相应变量最佳分割阈值,并且对C4.5分类其进行训练改进,在人车目标识别中有所应用。钱网伟(2012)[11]深入分析了决策树模型经典算法ID3生成算法的可并行性,他使用云计算的MapReduce编程技术实现了对海量数据的并行算法。张启徽(2015)[12]针对Apriori法内生的频繁项集弱点,提出相应修剪与优化方案,减少频繁项集,提高连接速度,通过增加项数统计字段和对不再使用的子项在数据库中标记或删除等方法使数据库数据规模不断减少,从而缩小搜索范围,提高扫描速度。
2.3 关于数据挖掘在信用卡风险管理应用中的文献综述
信用评分模型经过几代学者的探索和研究后在理论和技术上都趋于成熟。David Durand根据客户的信用卡贷款历史记录,评价信贷风险,实现了对“好”的贷款和“坏”的贷款的区分。20世纪80年代,随着数据挖掘理论的发展,越来越多的商业银行开始运用以决策树来建立信用风险水平评价体系。其中富国银行通过C5.0构建了客户属性与信用业务之间的关系体系;花旗银行使用CART算法对贷款客户的历史信贷数据进行分析,得出影响贷款的主要风险因素。
近年来,国内对如何应用数据挖掘技术到信贷风险的研究日趋增多。石庆众、靳云汇(2006)[13]实证研究结论得出决策分类树和神经网络等非传统线性方法在银行信用评分体系构建问题上有明显的精度优势。
徐晓霞、李金林(2006)[14]使用中国商业银行数据使用决策树C4.5建立银行风险评估模型,使用相应财务指标作为输入变量,进行违约与否的二项分类。
姜明辉(2007)[15]采用小样本数据比较了K-近邻法、神经网络法和分类树法,实证结果发现分类树算法在变量选择和分类精度上明显优于其他两种算法。
冯琼、叶涛(2009)[16]研究集中在客户价值管理与树挖掘的结合可能性。研究发现数据挖掘技术能够在效率和准确性两方面全面超越传统方法,不仅能够细分现有客户价值体系,降低成本,还能扩大客户群体,精准发现潜在客户,创造新的业务盈利点。交叉研究还能展现出关联关系,为银行的业务营销提出新方向,最后还能通过机器学习总结出风险特征,并对新客户进行基于历史数据的筛选判别,为银行风险控制提出新方案。
庞素琳、巩吉璋(2012)[17]通过研究加入了Boosting技术的C5.0算法,成功构造成本矩阵和成本敏感决策树,并应用于商业银行个人授信体系。
3 模型的原理介绍
至今,决策树模型是使用最为广泛的归纳分类算法之一,该模型为了到达预测的目的会先对目标数据进行分类,依据训练集形成决策树。第一次形成的决策树并不一定能够对每个数据进行有效的分类,那么我们需要调整训练集,加入一些例外到训练集,通过重复此操作直到形成正确的分类为止。决策树模型还有一个很大的优点就是它能够处理字符等非数值数据,而其他一些模型需要先将非数值数据转换为数值型数据才能分析,决策树就省去了数据的预处理。此外,决策树给出的结果直观易懂,可读性强,很容易就能转成SQL语句。
当前,决策树发展突飞猛进,形成了诸多算法。如CART、ID3、C4.5、C5.0、Xgboost等。在这些算法中,当数ID3算法使用最为常见、最具代表。该算法是由Quinlan J R在1986年提出。随着决策树的进一步发展,其预测精确还将进一步提高,并且运用范围会更加广泛。
3.1 I D3算法
信息论是ID3算法的理论基石,此算法是以信息熵和信息增益为依据来选择重要属性。根节点的选取是根据最大信息增益。再由不同的根节点对决策树进行分枝,最后对每个分枝采用相同的递归算法,以达到对数据归纳分类的目的。其思路如下:
假设集合S中含有s 个样本,而每个样本只有两个属性:正和反,记为Li, i=1,2。具有Li属性的样本共有Si,则对目标数据分类需要处理的信息量为:
假如属性X有{x1, x2, …, xn}个取值。我们根据取值的不同把S分为n个子集{S1, S2, …, Sn}, Sj表示集合S中X 属性是xj的样本,如果X 作为测试属性,令Sy是Sj中属于Li的样本,则根据 X分出的样本所需要的信息熵为:
其中:表示Sj中任意样本属于Li的概率。信息熵越小表示数据越具有规则性,信息熵越大表示数据越杂乱无章。
由此规则得到的信息增益为:
信息增益表示有效信息熵的损失量。该值越大表示目标属性根据X属性进行分类所损失的信息熵越大,这就意味着此属性越需要在决策树模型的上面。
ID3算法使用从上到下不回头的方法,穷尽可能的决策,这样能够确保得到一个简单有效的决策树。而能够保证每一步都能找到最佳属性的依据便是信息增益。把某一属性作为节点的标准为:选择最大信息增益的属性进行分类,通过逐一检验各个待检属性,采用同样的处理一层一层地构造决策子树S1, S2, …, Sn。
虽然ID3算法存在很多优点,但是其也有着比较突出的劣势:
(1)以信息增益的大小来选择属性会使得ID3更加偏向选择取值多的属性。
(2)ID3对于连续性数据无能为力,故在进行建模时需要将连续性数据离散化,这样就削弱了ID3算法的简单性。
3.2 C4.5算法
任何模型都会在实践过程中慢慢地改进。对于ID3算法的缺点,1993年的时候Quinlan J R就对其进行了改进,形成了C4.5算法,C4.5算法在此后风靡一时。
(1)不同于ID3算法,C4.5把信息增益比作为衡量标准来挑选属性,这样便有效地消除了多值趋势,属性X 所具有的信息熵为:
那么属性X 相对应的信息增益比为:
C4.5采用信息增益比来选择属性进而得出决策树,该方法选取的任意节点都是信息增益比最大的属性。就是这看似简单的改进,使得C4.5算法比ID3更加简单有效,可靠性更强。
(2)同时C4.5算法可以直接对非离散化的数据进行离散化处理。其操作为:对连续属性A, C4.5会找到一个最优闭值T,在通过比较A与T,构建A≤T(左支)和A≥T(右支)这两个分支,其中T 称为分割点,就像用电锯将一块完整的木头一锯为二。这种方法不仅能够对连续数据离散化处理,并且找到了最优的分割点。该分割点是模型自动找寻,相对于人工找寻,更加便捷准确。
同样,C4.5也并非一种完美的算法,其构建决策树的效率并不高,这样对于大数据就耗时较长。这是因为C4.5算法对数据集的扫描和排序是多次的。这种特性便决定了C4.5适用的数据集是能够驻留在内存的。
3.3 C5.0算法
有缺点的地方,人们必定会想方设法进行完善,而C5.0便是在C4.5的基础上进行了优化,不仅大大提升了效率,而且适用于大数据建模。
C5.0算法对C4.5算法进行了改进完善,使得其适合大数据。该算法运用了boosting方法,所以又被叫做boostingtrees, boosting方法能够提高模型的有效性和精度,运行速度快,占用内存小。
C5.0算法具体决策树的构建思想如下:
(1)以给定样本集合作为决策树根节点。
(2)分别算出每个属性的信息增益率,把最大信息增益比值作为节点的分裂属性。
(3)对上述属性的各个数值都建立一个分支,进而将样本分成n个子集,并且创建每个子集的节点。
C5.0算法把信息熵的减少速度作为衡量标准来确定最优分支变量和分割点值的依据。信息熵的减少反映了信息确定性增加不确定性下降,故停止分枝的时点是根据信息熵的减少速度。
C5.0算法是在此前算法的基础上,针对不足进行了优化改进,具有以下特点:
(1)C5.0算法处理缺失数据和字符数据等问题时稳定性更强。
(2)C5.0算法能够高速并行处理大量离散型和连续型数据。
(3)C5.0算法更加通俗易懂,上手较快,结果可读性强。
C5.0算法使用了boosting技术,使得其精度更高。
3.4 rpart算法
在R语言软件上并没有默认安装rpart的包,如需使用此算法,需要另行下载安装。rpart算法的函数并不多,主要的函数就两个。一个是rpart()函数;另一个是prone()函数。
rpart()函数具体表示为:rpart(formula, data, weights, subset, na, action=na, rpart, method, model=FALSE, x=FALSE, y=TRUE, parms, control, cost, ...); prone()函数具体表示为prune(tree, ...)prune(tree, cp, ...),前者用来拟合,后者用来剪枝。剪枝的目的是防止过度拟合,从而避免生成的树完全拟合了原始数据,如果树的枝太多就会完成拟合了原始数据,就不能反映数据本身的规律性,不具有现实意义。如果枝太少,那么预测的精确将大打折扣。
rpart算法停止运行的依据是达到了给定条件,我们会事先设定约束,即偏差小于设定阈值、节点中的样本数小于设定阈值、决策树的深度大于设定阈值。这三个约束条件是根据rpart()函数的三个参数(cp、minsplit、maxdepth)确定,如果不设定,其默认值分别为0.01、20、30。但是默认值并非是最优,我们为了防止过度拟合常常会调整参数的数值。所以对构建的决策树进行事后修建是至关重要的。
我们选择决策树方法有二,一是选取交叉验证的相对方差(xerror)最小值;二是根据剪枝理论中运用相对广泛的1- SE(1标准差)规则,该规则是指:在交叉验证的预测误差尽可能小的情况下,选取尽可能小的复杂度参数,然后根据此复杂度参数进行剪枝。这里的预测误差尽可能小并不意味着最小,而是在一个标准差范围内尽可能小。然后在此范围内选择所需的复杂度。第二个规则不仅能保证误差尽可能小,而且还考虑了复杂度参数尽可能小。之所以这样选取是因为随着拆分的增加,复杂度会减少,而预测误差会先减少后增加。故无法同时保证复杂度和预测误差都最小。因此我们在预测误差某个尽可能小的范围内选择尽可能小的复杂度。
3.5 xgboost算法
xgboost的全称是extreme gradient boosting,损失函数表示为l(yi,i),函数复杂度表示为Ω(fk)。Obj ective:,用boosting的方法进行优化。
从而找出最佳化的ft。
xgboost是Gradient Boosting的一种高效系统实现,并非单一算法。xgboost的基学习器既有树(gbtree)又有线性分类器(gbfinear),从而得到带L1+L2惩罚的线性回归或者逻辑回归。xgboost对损失函数采用了二阶泰勒展开,因而利用的是二阶导数信息。
Xgboost将模型的复杂度作为正则项添加在目标函数来优化模型,并添加了对于后期的剪枝处理,提出shrinkage以及列(特征)二次采样的方法。
xgboost是大规模并行boosted tree的工具,它是目前最快最好的开源boosted tree工具包,比常见的工具包快10倍以上。在数据科学方面,有大量kaggle选手选用它进行数据挖掘比赛,其中包括两个以上kaggle比赛的夺冠方案。在工业界规模方面,xgboost的分布式版本有广泛的可移植性,支持在YARN, MPI, Sungrid Engine等各个平台上面运行,并且保留了单机并行版本的各种优化,使得它可以很好地解决于工业界规模的问题。
3.6 组合预测模型
组合预测模型实质是多分类器进行组合,其目的是为了将单个分类器(也叫基分类器base classifier)进行组合,提升对未知样本的分类准确率。构建组合分类器的逻辑视图可以用以下的图表示:
提到组合方法(classifier combination),经典的算法是bagging, bagging是boostrap aggregation的缩写,确切来说它是依据均匀分布从数据集中有放回的重复抽样技术。在构造每一个子分类器的训练样本时,由于是对原始数据集的有放回抽样,因此同一个训练样本集中可能出现多次同一个样本数据。步骤是:
袋装算法:
(1)设k为自助样本集的数目;
(2)for i=1 to k do;
(3)生成一个大小为N 的自助样本集Di;
(4)在自助样本集Di上训练一个基分类器Ci;
(5)end for;
(6)C∗(x)=argmax∑δi(C i(x)=y);
如果参数为真则δ(•)=1,否则为-1。
最后对未知样本x 进行分类,其结果是由单个分类器的预测结果投票表决出来的。
bagging算法优点在于它是一个容易理解、易于实现且功能强大的学习算法,但是该算法的主要缺点是很难根据所得到的结果解释。
3.7 SVM
支持向量机是在1995年提出,在非线性、小样本和高维模型识别中具有无可比拟的优势,在机器学习和函数拟合问题中得到广泛应用。
支持向量机有两个比较突出的优点:
SVM把结构风险最小化作为衡量依据来训练学习机,此外采用VC维理论来度量结构风险。支持向量机算法可以看作是求解凸二次规划问题,其得出的解可以保证是全局最优,这从理论上规避了神经网络方法存在的局部极值问题。
假设线性支持向量机回归问题的训练集为S={(xi, yi), i=1,2, …, l}, xi∈Rn表示第i个输入样本,yi∈R是对应的xi的目标值,l表示训练样本数。目的是寻找一个实值函数y=f(x),而寻找的依据是给定训练数据,该实值函数能够表示出x和y 的关系,故可用该函数得到所有x对应的函数值y。定义线性ε不敏感损失函数为:如果Y的值和f(x)之间的差别小于ε,那么损失等于0。如果存在一个超平面
其中ω∈Rn, b∈R,使得
则称样本集S是ε线性近似的,f(x)=ωTx+b为对样本的线性回归估计函数。
样本点(xi, yi)∈S到超平面f(x)=ωTx+b=0的距离为
即是S中的点到超平面距离的上界。求该上界的最大值得到的超平面即为最优近似超平面,所以,应使‖ω‖ 取最小值。
4 实证分析
4.1 数据描述
由于考虑到隐私等问题,我国到目前并没有公开个人信用卡数据,因此本文选取的是德国发布的信用卡数据。此数据集包含1000个样本,30个变量。1000个客户被分为信用良好与信用不良两类。其中信用良好700人,信用不良300人。我们可以根据这30个预测变量评估新的信用申请人的信用情况。
4.2 指标体系的构建
本文选取的指标以及指标说明如表1所示。
表1 指标体系及说明
根据表1可知,30个变量主要包含申请人基本信息、信贷信息两个方面。每个变量可能都会影响到客户的信用状况。这些指标基本上穷尽了可能影响个人信用状况的因素,以这30个指标作为分类依据,使得实证结果更加准确科学。
4.3 建模及结果说明
本文使用了决策树的C4.5、C5.0、rpart、xgboost以及组合预测模型算法,并且和另外一种分类算法SVM进行比较,使结果更加稳健。
4.3.1 C4.5算法结果及分析
在进行建模之前,先设定训练集和测试集所占比例,本文先设定训练集占70%,测试集占30%。设定随机种子,并把目标变量转换成因子型,保证每次试验的训练集和测试集都与之前数据不同。由C4.5算法得出的决策树图如图2所示:
图2 C4.5算法决策树图
这是决策流程图,根据图1可知:当CHK_ACCT≤1时,进入DURATION节点;当CHK_ACCT≥1时,进入OTHER_INSTALL节点,以下分析同理。
图1 组合分类器的逻辑视图
接下来由C4.5算法得出的混淆矩阵如表2。
表2 C4.5方法分类器的准确度
数据来源:R语言整理得出
由表2可得,C4.5算法的预测准确率为(34+176)/(34+18+74+176)=69.53%。
4.3.2 C5.0算法结果及分析
首先设定训练集和测试集在样本中所占比例,训练集占70%,测试集占30%。设定随机种子,保证每次试验的训练集和测试集都与之前数据不同。由C5.0算法得出的决策树图过于密集不再展示。
由C5.0算法得出的混淆矩阵如表3。
表3 C5.0方法分类器的准确度
数据来源:R语言整理得出
由表3可得,C4.5算法的预测准确率为(44+165)/(44+29+64+165)=69.20%。
4.3.3 rpart算法结果及分析
首先设定训练集和测试集在样本中所占比例,训练集占70%,测试集占30%。设定随机种子,保证每次试验的训练集和测试集都与之前数据不同。由rpart算法得出的决策树图如下。
图3 rpart算法决策树图
由rpart算法得出的混淆矩阵如表4。
表4 rpart方法分类器的准确度
数据来源:R语言整理得出
由表4可得,rpart算法的预测准确率为(43+174)/(43+20+65+174)=71.85%。
4.3.4 xgboost算法结果及分析
首先设定训练集和测试集在样本中所占比例,训练集占70%,测试集占30%。设定随机种子,保证每次试验的训练集和测试集都与之前数据不同。
由C5.0算法得出的混淆矩阵如表5。
表5 xgboost方法分类器的准确度
数据来源:R语言整理得出
由表5可得,xgboost算法的预测准确率为(50+175)/(50+23+54+175)=74.50%。
4.3.5 组合预测模型结果及分析
由于组合预测模型是循环K 次,每次都从样本集D 中有放回地抽取样本集Di,这样总共得到K 个样本集,用这K 个样本集进行决策树生成,获得K个决策树模型,再将要检测的数据用这K 个决策树模型进行多数表决,获得票数多的结论。所以组合预测模型不存在划分训练集和测试集的问题,该算法直接得出混淆矩阵和错分率。
由表6可得,组合预测模型算法的预测准确率为(295+700)/(295+0+5+700)=99.5%。
表6 组合预测模型的准确度
得到的错分率为:0.246。
组合预测模型的思想跟现代民主投票制度如出一辙,一个人再厉害,判断力也是有限的,但是把一群人聚合在一起投票,那单个人所犯错误的概率就会被抵消,最后得出结论的正确性会明显优于单个人做出决策。从组合预测模型的预测准确率可以明显看出其优势。
4.3.6 SVM算法结果及分析
首先设定训练集和测试集在样本中所占比例,训练集占70%,测试集占30%。设定随机种子,保证每次试验的训练集和测试集都与之前数据不同。由rpart算法得出的决策树图过于密集不再展示。
由SVM算法得出的混淆矩阵如表7。
表7 SVM方法分类器的准确度
数据来源:R语言整理得出
由表7可得,SVM算法的预测准确率为(55+160)/(55+34+53+160)=71.19%。
4.4 参数优化
在上文所得模型中,训练集和测试集的划分比例为7∶3(默认划分),为了得到不同比例的训练集和测试集会对预测结果及模型的稳健性产生何种影响,将训练集和测试集比例依次划分为8∶2、6∶4并与上文进行了比较(由于组合预测模型并不划分训练集和测试集,故此部分不包括组合预测模型)。各算法在不同划分比例下的预测结果如表8。
表8 参数调优表
从表8可知,在训练集和测试集比例上,随着训练集占比的提高,所有的模型的预测准确率都在增高。预测效果最差的是C5.0模型,预测效果最好的是xgboost模型,由表8可看出这5种模型的预测准确率从高到低依次是:xgboost、SVM、rpart、C4.5、C5.0。同时,不同划分比例下得出的结果相差较小,说明其对模型预测准确率的影响微乎其微。但相比之下,在8∶2的划分比例上更好一些。
5 结论
本文选择决策树C4.5、C5.0、rpart、xgboost、组合预测模型算法作为本文模型建立方法,并且和支持向量机进行了比较。采用上述算法,建立了个人信用评价的决策树模型。通过对比我们发现,采用决策树的模型简单易行、精度高、并且在实践中得到了广泛的运用。决策树建模在实际运用中对于进行信用卡申请者的筛选有一定的指导性作用,并且能够为信贷决策提供参考,具有较强的理论和现实意义。
参考文献
[1]Stiglitz J E.Financial markets and development[J].Oxford Review of Economic Policy,1989,5(4):55-68.
[2]Langwith E.Credit cards can help lower costs and increase revenue[J]. Ophthalmology Times,2005.
[3]Massoud N, Saunders A, Scholnick B.The cost of being late? The case of credit card penalty fees[J].Social Science Electronic Publishing,2011,7(2):49-59.
[4]胡勇,张永青.信用卡风险管理[J].特区经济,2006(1):72-73.
[5]闫天兵,沈丽.我国信用卡信用风险管理研究[J].金融发展研究,2007(8):47-49.
[6]王保艳.论我国信用卡信用风险监管的法律完善[J].江苏商论,2011(36):35-35.
[7]魏鹏.银行卡业务发展的国际经验与启示[J].银行家,2011(11):91-94.
[8]黄定轩.基于客观信息熵的多因素权重分配方法[J].系统管理学报,2003,12(4):321-324.
[9]张品,傅强.基于微多普勒信号三维形状特征的人体目标动作分类方法[J].模式识别与人工智能,2012,25(1):16.
[10]姚亚夫,邢留涛.决策树C4.5连续属性分割阈值算法改进及其应用[J].中南大学学报(自然科学版),2011,42(12):3772-3776.
[11]钱网伟.基于MapReduce的ID3决策树分类算法研究[J].计算机与现代化,2012,198(2):26-30.
[12]张启徽.关联规则挖掘中查找频繁项集的改进算法[J].统计与决策,2015(4):32-35.
[13]石庆焱,秦宛顺.个人信用评分模型及其应用[M].北京:中国方正出版社,2006.
[14]徐晓霞,李金林.基于决策树法的我国商业银行信用风险评估模型研究[J].北京理工大学学报(社会科学版),2006,8(3):71-74.
[15]姜明辉,袁绪川.个人信用评估GA神经网络模型的构建与应用[J].武汉科技大学学报(社会科学版),2007,9(4):45-49.
[16]冯琼,叶涛.论数据挖掘技术在客户价值管理中的应用[J].中国商界,2009(6):212-213.
[17]庞素琳,巩吉璋.C5.0分类算法及在银行个人信用评级中的应用[J].系统工程理论与实践,2009,29(12):94-104.