基于Apache Spark机器学习的客户流失预测
流失预测是个重要的业务,通过预测哪些客户可能取消对服务的订阅来最大限度地减少客户流失。虽然最初在电信行业使用,但它已经成为银行,互联网服务提供商,保险公司和其他垂直行业的通用业务。
预测过程是大规模数据的驱动,并且经常结合使用先进的机器学习技术。在本篇文章中,我们将看到通常使用的哪些类型客户数据,对数据进行一些初步分析,并生成流失预测模型 - 所有这些都是通过Spark及其机器学习框架来完成的。
使用数据科学更好地理解和预测客户行为是一个迭代过程,其中涉及:
1.发现和模型创建:
- 分析历史数据。
- 由于格式,大小或结构,传统分析或数据库不能识别新数据源。
- 收集,关联和分析跨多数据源的数据。
- 认识并应用正确的机器学习算法来从数据中获取价值。
2.在生产中使用模型进行预测。
3.使用新数据发现和更新模型。

为了了解客户,可以分析许多特征因素,例如:
- 客户人口统计数据(年龄,婚姻状况等)。
- 社交媒体的情感分析。
- 客户习惯模式和地理使用趋势。
- 标记数据。
- 从点击流日志中分析浏览行为。
- 支持呼叫中心统计
- 显示行为模式的历史数据。
通过这种分析,电信公司可以获得预测和增强客户体验,防止客户流失和定制营销活动。
分类
分类是一系列有监督的机器学习算法,其基于已知项目的标记特征(即,已知是欺诈的交易)来识别项目属于哪个类别(即交易是否是欺诈)。分类采用已知标签和预定特征的一组数据,并学习如何基于该标记信息应用与新记录。特征就是你问的“问题”。标签是这些问题的答案。在下面的例子中,如果它像鸭子一样走路,游泳,嘎嘎叫,那么标签就是“鸭子”。

我们来看一个电信客户流失的例子:
- 我们试图预测什么?
- 客户是否有很高的服务退订概率。
- 流失被标记为“真”或“假”。
- 什么是“问题”或你可以用属性来做出预测?
- 来电统计,客服电话等
- 要构建分类器模型,需要提取最有助于分类的有利的特征。
决策树
决策树根据几个输入特征预测类或标签来创建模型。决策树通过在每个节点处评估包含特征的表达式并根据答案选择到下一个节点的分支来工作。下面显示了一个可能的信用风险的决策树预测。特征问题是节点,答案“是”或“否”是树中到子节点的分支。
- 问题1:检查帐户余额是否> 200DM?
- 没有
- Q2:目前的就业年限是多少>1年?
- 没有
- 不可信

示例用例数据集
对于本教程,我们将使用Orange 电信公司流失数据集。它由已清理的客户活动数据(特征)和流失标签组成,标记客户是否取消订阅。数据可以从BigML的S3 bucket,churn-80和churn-20中获取。churn-80和churn-20两套是来自同一批次,但已被分成80/20的比例。我们将使用较大的集合进行训练和交叉验证,最后一组数据用于测试和模型性能评估。为方便起见,这两个数据集已包含在此存储库中的完整代码中。数据集有以下结构:
. State: string . Account length: integer . Area code: integer . International plan: string . Voice mail plan: string . Number vmail messages: integer . Total day minutes: double . Total day calls: integer . Total day charge: double .Total eve minutes: double . Total eve calls: integer . Total eve charge: double . Total night minutes: double . Total night calls: integer . Total night charge: double . Total intl minutes: double . Total intl calls: integer . Total intl charge: double . Customer service calls: integer
CSV文件具有以下格式:
LA,,,No,No,,184.5,,31.37,351.6,,29.89,215.8,,9.71,8.7,,2.35,,False IN,,,No,No,,129.1,,21.95,228.5,,19.42,208.8,,9.4,12.7,,3.43,,True
下图显示了数据集的前几行:

软件
本教程将在Spark 2.0.1及更高版本上运行。
- 您可以从这里下载代码和数据来运行这些示例。
- 这个帖子中的例子可以在启动spark-shell命令之后运行在Spark shell中。
- 您也可以将代码作为独立应用程序运行,如在MapR沙箱上启动Spark的教程中所述,使用用户名user01,密码mapr登录到MapR沙箱。使用scp 将示例数据文件复制到沙箱主目录/ user / user01下。用以下命令启动Spark shell: $
spark -shell --master local [1]
从CSV文件加载数据

首先,我们将导入SQL和机器学习包。
import org.apache.spark._
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions._
import org.apache.spark.sql.types._
import org.apache.spark.sql._
import org.apache.spark.sql.Dataset
import org.apache.spark.ml.Pipeline
import org.apache.spark.ml.classification.DecisionTreeClassifier
import org.apache.spark.ml.classification.DecisionTreeClassificationModel
import org.apache.spark.mllib.evaluation.BinaryClassificationMetrics
import org.apache.spark.ml.evaluation.BinaryClassificationEvaluator
import org.apache.spark.ml.feature.StringIndexer
import org.apache.spark.ml.tuning.ParamGridBuilder
import org.apache.spark.ml.tuning.CrossValidator
import org.apache.spark.ml.feature.VectorAssembler
我们使用Scala案例类和Structype来定义模式,对应于CSV数据文件中的一行。
// define the Churn Schema
case class Account(state: String, len: Integer, acode: String,
intlplan: String, vplan: String, numvmail: Double,
tdmins: Double, tdcalls: Double, tdcharge: Double,
temins: Double, tecalls: Double, techarge: Double,
tnmins: Double, tncalls: Double, tncharge: Double,
timins: Double, ticalls: Double, ticharge: Double,
numcs: Double, churn: String)
val schema =StructType(Array(
StructField("state", StringType,true),
StructField("len", IntegerType,true),
StructField("acode", StringType,true),
StructField("intlplan", StringType,true),
StructField("vplan", StringType,true),
StructField("numvmail", DoubleType,true),
StructField("tdmins", DoubleType,true),
StructField("tdcalls", DoubleType,true),
StructField("tdcharge", DoubleType,true),
StructField("temins", DoubleType,true),
StructField("tecalls", DoubleType,true),
StructField("techarge", DoubleType,true),
StructField("tnmins", DoubleType,true),
StructField("tncalls", DoubleType,true),
StructField("tncharge", DoubleType,true),
StructField("timins", DoubleType,true),
StructField("ticalls", DoubleType,true),
StructField("ticharge", DoubleType,true),
StructField("numcs", DoubleType,true),
StructField("churn", StringType,true)
))
使用Spark 2.0,我们指定要加载到数据集中的数据源和模式。请注意,对于Spark 2.0,将数据加载到DataFrame中时指定模式将比模式推断提供更好的性能。我们缓存数据集以便快速重复访问。我们也打印数据集的模式。
val train: Dataset[Account]= spark.read.option("inferSchema","false")
.schema(schema).csv("/user/user01/data/churn-bigml-80.csv").as[Account]
train.cache
val test: Dataset[Account]= spark.read.option("inferSchema","false")
.schema(schema).csv("/user/user01/data/churn-bigml-20.csv").as[Account]
test.cache
train.printSchema()
root
|-- state:string(nullable =true)
|-- len:integer(nullable =true)
|-- acode:string(nullable =true)
|-- intlplan:string(nullable =true)
|-- vplan:string(nullable =true)
|-- numvmail:double(nullable =true)
|-- tdmins:double(nullable =true)
|-- tdcalls:double(nullable =true)
|-- tdcharge:double(nullable =true)
|-- temins:double(nullable =true)
|-- tecalls:double(nullable =true)
|-- techarge:double(nullable =true)
|-- tnmins:double(nullable =true)
|-- tncalls:double(nullable =true)
|-- tncharge:double(nullable =true)
|-- timins:double(nullable =true)
|-- ticalls:double(nullable =true)
|-- ticharge:double(nullable =true)
|-- numcs:double(nullable =true)
|-- churn:string(nullable =true)
//display the first 20 rows:
train.show

摘要统计
Spark DataFrame包含一些用于统计处理的内置函数。describe()函数对所有数字列执行摘要统计的计算,并将其作为DataFrame形式返回。
train.describe()
输出:

数据探索
我们可以使用Spark SQL来研究数据集。以下是使用Scala DataFrame API的一些示例查询:
train.groupBy("churn").sum("numcs").show
+-----+----------+
|churn|sum(numcs)|
+-----+----------+
|False|3310.0|
| True|856.0|
+-----+----------+
train.createOrReplaceTempView("account")
spark.catalog.cacheTable("account")

总日分钟数和总日费用是高度相关的领域。这样的相关数据对于我们的模型训练运行不会有利处,所以我们将会删除它们。我们将通过删除每个相关字段对中的一列,以及州和地区代码列,我们也不会使用这些列。
val dtrain =train.drop("state").drop("acode").drop("vplan")
.drop("tdcharge").drop("techarge")

根据churn 字段对数据进行分组并计算每个组中的实例数目,显示其中有大约是真实流失样本6倍的虚假流失样本。
dtrain.groupBy("churn").count.show
输出:
+-----+-----+
|churn|count|
+-----+-----+
|False||
| True||
+-----+-----+
商业决策将被用来保住最有可能离开的客户,而不是那些可能留下来的客户。因此,我们需要确保我们的模型对Churn = True样本敏感。
分层抽样
我们可以使用分层采样将两个样本类型放在同一个基础上。DataFrames sampleBy() 函数在提供要返回的每个样本类型的分数时执行此操作。在这里,我们保留Churn = True类的所有实例,但是将Churn = False类下采样为388/2278分之一。
val fractions =Map("False"->.,"True"->1.0)
val strain = dtrain.stat.sampleBy("churn", fractions, 36L)
strain.groupBy("churn").count.show
输出:
-----+-----+ |churn|count| +-----+-----+ |False|| | True|| +-----+-----+
特征数组
要构建分类器模型,可以提取对分类贡献最大的特征。每个条目的特征由以下显示的字段组成:
- 标签 - 流失:真或假
- 特征 -
{“len”,“iplanIndex”,“numvmail”,“tdmins”,“tdcalls”,“temins”,“tecalls”,“tminmin”,“tncalls”,“timins”,“ticalls” }
为了使这些特征被机器学习算法使用,它们需变换并放入特征向量中,特征向量是代表每个特征值的数字的向量。

使用Spark ML包
在ML封装是机器学习程序的新库。Spark ML提供了在DataFrame上构建的统一的高级API集合。

我们将使用ML管道将数据通过变换器传递来提取特征和评估器以生成模型。
- 转换器(Transformer):将一个DataFrame转换为另一个DataFrame的算法。我们将使用变换器来获取具有特征矢量列的DataFrame。
- 估计器(Estimator):可以适合DataFrame生成变换器(例如,在DataFrame上进行训练/调整并生成模型)的算法。
- 管道:连接多个变换器和估算器,以指定一个ML工作流程。
特征提取和流水线
ML包需要将数据放入(label:Double,features:Vector) DataFrame格式并带有相应命名的字段。我们建立了一个流水线,通过三个转换器来传递数据 ,以此提取特征:2个StringIndexers 和1个 VectorAssembler。我们使用StringIndexers将String Categorial特性intlplan 和标签转换为数字索引。索引分类特征允许决策树适当地处理分类特征,提高性能。

// set up StringIndexer transformers for label and string feature
val ipindexer =newStringIndexer()
.setInputCol("intlplan")
.setInputCol("intlplan")
val labelindexer =newStringIndexer()
.setInputCol("churn")
.setOutputCol("label")
VectorAssembler 将一个给定的列表列成一个单一的特征向量列。
// set up a VectorAssembler transformer
val featureCols =Array("len","iplanIndex","numvmail","tdmins",
"tdcalls","temins","tecalls","tnmins","tncalls","timins",
"ticalls","numcs")
val assembler =newVectorAssembler()
.setInputCols(featureCols)
.setOutputCol("features")
我们管道中的最后一个元素是估计器(决策树分类器),对标签和特征向量进行训练。

// set up a DecisionTreeClassifier estimator
val dTree =newDecisionTreeClassifier().setLabelCol("label")
.setFeaturesCol("features")
// Chain indexers and tree in a Pipeline
val pipeline =newPipeline()
.setStages(Array(ipindexer, labelindexer, assembler, dTree))
训练模型

我们想确定决策树的哪个参数值产生最好的模型。模型选择的常用技术是k交叉验证,其中数据被随机分成k个分区。每个分区使用一次作为测试数据集,其余的则用于训练。然后使用训练集生成模型,并使用测试集进行评估,从而得到k个模型性能测量结果。考虑到构建参数,性能得分的平均值通常被认为是模型的总体得分。对于模型选择,我们可以搜索模型参数,比较它们的交叉验证性能。导致最高性能指标的模型参数产生最佳模型。
Spark ML支持使用变换/估计流水线进行k-fold交叉验证,以使用称为网格搜索的过程尝试不同的参数组合,在该过程中设置要测试的参数,并使用交叉验证评估器构建模型选择工作流程。
下面我们用一个 aramGridBuilder 来构造参数网格。
// Search through decision tree's maxDepth parameter for best model val paramGrid =newParamGridBuilder().addGrid(dTree.maxDepth, Array(,,,,,)).build()
我们定义一个BinaryClassificationEvaluator 计算器,通过比较测试标签列和测试预测列,它将根据精度度量来评估模型。默认度量标准是ROC曲线下的面积。
// Set up Evaluator (prediction, true label)
val evaluator =newBinaryClassificationEvaluator()
.setLabelCol("label")
.setRawPredictionCol("prediction")
我们使用一个CrossValidator 模型选择。在CrossValidator 使用管道评估,参数网格和分类评估。该CrossValidator 使用 ParamGridBuilder 遍历maxDepth 决策树的参数和评价模型,重复每个参数值三次以便于获得可靠的结果。
// Set up 3-fold cross validation val crossval =newCrossValidator().setEstimator(pipeline) .setEvaluator(evaluator) .setEstimatorParamMaps(paramGrid).setNumFolds() val cvModel = crossval.fit(ntrain)
我们得到最佳的决策树模型,以便打印出决策树和参数。
// Fetch best model
val bestModel = cvModel.bestModel
val treeModel = bestModel.asInstanceOf[org.apache.spark.ml.PipelineModel]
.stages().asInstanceOf[DecisionTreeClassificationModel]
println("Learned classification tree model:\n"+ treeModel.toDebugString)
输出:

//0-11 feature columns: len, iplanIndex, numvmail, tdmins, tdcalls, temins, //tecalls, tnmins, tncalls, timins, ticalls, numcs
println("Feature 11:"+featureCols())
println("Feature 3:"+featureCols())
Feature :numcs
Feature :tdmins
我们发现使用交叉验证过程产生的最佳树模型是树深度为5的模型。toDebugString() 函数提供树的决策节点和最终预测结果的打印。我们可以看到特征11和特征3用于决策,因此应该被认为具有高度的预测能力来确定客户流失的可能性。这些特征值映射到“ 客户服务电话 ”字段和“ 总分钟数”字段并不奇怪。决策树通常用于特征选择,因为它们提供了一个确定最重要特征(最接近树根的特征)的自动化机制。
预测和模型评估

模型的实际性能可以使用尚未用于任何训练或交叉验证活动的测试数据集来确定。我们将使用模型管道来转换测试集,这将根据相同的方法来映射特征。
val predictions = cvModel.transform(test)

计算器将为我们提供预测的分数,然后我们会将它们的概率打印出来。
val accuracy = evaluator.evaluate(predictions)
evaluator.explainParams()
val result = predictions.select("label","prediction","probability")
result.show
输出:
accuracy: Double =0.8484817813765183 metric name inevaluation(default: areaUnderROC)

在这种情况下,评估返回率为84.8%。预测概率可以非常有用地排列可能性的客户流失。这样,企业可用于保留的有限资源在适当的客户身上。
下面,我们计算一些更多的指标。错误/正确的正面和负面预测的数量也是有用的:
- 真正的好处是模型正确预测订阅取消的频率。
- 误报是模型错误地预测订阅取消的频率。
- 真正的否定表示模型正确预测不消除的频率。
- 假表示模型错误地预测不取消的频率。
val lp = predictions.select("label","prediction")
val counttotal = predictions.count()
val correct = lp.filter($"label"=== $"prediction").count()
val wrong = lp.filter(not($"label"=== $"prediction")).count()
val ratioWrong = wrong.toDouble / counttotal.toDouble
val ratioCorrect = correct.toDouble / counttotal.toDouble
val truep = lp.filter($"prediction"===0.0)
.filter($"label"=== $"prediction").count()/ counttotal.toDouble
val truen = lp.filter($"prediction"===1.0)
.filter($"label"=== $"prediction").count()/ counttotal.toDouble
val falsep = lp.filter($"prediction"===1.0)
.filter(not($"label"=== $"prediction")).count()/ counttotal.toDouble
val falsen = lp.filter($"prediction"===0.0)
.filter(not($"label"=== $"prediction")).count()/ counttotal.toDouble
println("counttotal : "+ counttotal)
println("correct : "+ correct)
println("wrong: "+ wrong)
println("ratio wrong: "+ ratioWrong)
println("ratio correct: "+ ratioCorrect)
println("ratio true positive : "+ truep)
println("ratio false positive : "+ falsep)
println("ratio true negative : "+ truen)
println("ratio false negative : "+ falsen)
基于Apache Spark机器学习的客户流失预测的更多相关文章
- 使用基于Apache Spark的随机森林方法预测贷款风险
使用基于Apache Spark的随机森林方法预测贷款风险 原文:Predicting Loan Credit Risk using Apache Spark Machine Learning R ...
- 带有Apache Spark的Lambda架构
欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 目标 市场上的许多玩家已经建立了成功的MapReduce工作流程来每天处理以TB计的历史数据.但是谁愿意等待24小时才能获得最新的分析结果? ...
- Robinhood基于Apache Hudi的下一代数据湖实践
1. 摘要 Robinhood 的使命是使所有人的金融民主化. Robinhood 内部不同级别的持续数据分析和数据驱动决策是实现这一使命的基础. 我们有各种数据源--OLTP 数据库.事件流和各种第 ...
- 客户流失?来看看大厂如何基于spark+机器学习构建千万数据规模上的用户留存模型 ⛵
作者:韩信子@ShowMeAI 大数据技术 ◉ 技能提升系列:https://www.showmeai.tech/tutorials/84 行业名企应用系列:https://www.showmeai. ...
- Spark学习之基于MLlib的机器学习
Spark学习之基于MLlib的机器学习 1. 机器学习算法尝试根据训练数据(training data)使得表示算法行为的数学目标最大化,并以此来进行预测或作出决定. 2. MLlib完成文本分类任 ...
- Apache Flink vs Apache Spark——感觉二者是互相抄袭啊 看谁的好就抄过来 Flink支持在runtime中的有环数据流,这样表示机器学习算法更有效而且更有效率
Apache Flink是什么 Flink是一款新的大数据处理引擎,目标是统一不同来源的数据处理.这个目标看起来和Spark和类似.没错,Flink也在尝试解决 Spark在解决的问题.这两套系统都在 ...
- 掌握Spark机器学习库-07.6-线性回归实现房价预测
数据集 house.csv 数据概览 代码 package org.apache.spark.examples.examplesforml import org.apache.spark.ml.fea ...
- Apache Spark 2.2中基于成本的优化器(CBO)(转载)
Apache Spark 2.2最近引入了高级的基于成本的优化器框架用于收集并均衡不同的列数据的统计工作 (例如., 基(cardinality).唯一值的数量.空值.最大最小值.平均/最大长度,等等 ...
- Spark学习笔记——基于MLlib的机器学习
使用MLlib库中的机器学习算法对垃圾邮件进行分类 分类的垃圾邮件的如图中分成4个文件夹,两个文件夹是训练集合,两个文件夹是测试集合 build.sbt文件 name := "spark-f ...
随机推荐
- LeetCode - 774. Minimize Max Distance to Gas Station
On a horizontal number line, we have gas stations at positions stations[0], stations[1], ..., statio ...
- Codeforces 1032 - A/B/C/D/E - (Undone)
链接:http://codeforces.com/contest/1032/ 是真的真的真的忍不住想吐槽这题意是真的真的真的读不懂…… A - Kitchen Utensils - [简单数学题] 题 ...
- [No000012B]WPF(3/7)有趣的边框和画刷[译]
介绍 边框是每个WPF程序的主要构成块.在我现在的程序中,我使用了很多的边框来装饰界面.从把边框直接放到窗口中到把边框放到控件模板和列表项中,边框在创建一个好的应用界面上扮演了一个非常重要的角色.在这 ...
- tensorflow中的tf.app.run()的使用
指明函数的入口,即从哪里执行函数. 如果你的代码中的入口函数不叫main(),而是一个其他名字的函数,如test(),则你应该这样写入口tf.app.run(test()) 如果你的代码中的入口函数叫 ...
- MongoDB win10 安装教程(zip)
1.创建文件夹,如下: D:\Program File\mongodb D:\Program File\mongodb\data D:\Program File\mongodb\data\db D:\ ...
- PHP之对象类型
PHP之object对象 对象初始化 要创建一个新的对象object,使用new语句实例化一个类: 转化为对象 如果讲一个对象转化成对象,它将不会有任何变化.如果其它任何类型的值被转化成对象,将会创建 ...
- [knowledge][模式匹配] 字符匹配/模式匹配 正则表达式 自动机
字符串 T = abcabaabcabac,字符串 P = abaa,判断P是否是T的子串,就是字符串匹配问题了,T 叫做文本(Text) ,P 叫做模式(Pattern),所以正确描述是,找出所有在 ...
- Flash and Scalform CLIK
Flash shift + f7 打开组件检查面板 Scaleform As bit define bool Unrolling :1; // indi ...
- docker管理工具protainer
ortainer(基于 Go) 是一个轻量级的Web管理界面,可让您轻松管理 Docker 主机 或 Swarm 集群.
- charles4.2下载与破解方法以及配置https
Charles的使用方法 Charles下载地址 地址:https://www.charlesproxy.com/latest-release/download.do 2. Charles破解 破解地 ...