Spark Streaming接收Kafka数据存储到Hbase

fly
spark
hbase
kafka

主要参考了这篇文章https://yq.aliyun.com/articles/60712([点我])(https://yq.aliyun.com/articles/60712), 不过这篇文章使用的spark貌似是spark1.x的。我这里主要是改为了spark2.x的方式

kafka生产数据

闲话少叙,直接上代码:

  1. import java.util.{Properties, UUID} 


  2. import org.apache.kafka.clients.producer.{KafkaProducer, ProducerRecord} 

  3. import org.apache.kafka.common.serialization.StringSerializer 


  4. import scala.util.Random 



  5. object KafkaProducerTest { 

  6. def main(args: Array[String]): Unit = { 

  7. val rnd = new Random() 

  8. // val topics = "world" 

  9. val topics = "test" 

  10. val brokers = "localhost:9092" 

  11. val props = new Properties() 

  12. props.put("delete.topic.enable", "true") 

  13. props.put("key.serializer", classOf[StringSerializer]) 

  14. // props.put("value.serializer", "org.apache.kafka.common.serialization.StringDeserializer") 

  15. props.put("value.serializer", classOf[StringSerializer]) 

  16. props.put("bootstrap.servers", brokers) 

  17. //props.put("batch.num.messages","10");//props.put("batch.num.messages","10"); 


  18. //props.put("queue.buffering.max.messages", "20"); 

  19. //linger.ms should be 0~100 ms 

  20. props.put("linger.ms", "50") 

  21. //props.put("block.on.buffer.full", "true"); 

  22. //props.put("max.block.ms", "100000"); 

  23. //batch.size and buffer.memory should be changed with "the kafka message size and message sending speed" 

  24. props.put("batch.size", "16384") 

  25. props.put("buffer.memory", "1638400") 


  26. props.put("queue.buffering.max.messages", "1000000") 

  27. props.put("queue.enqueue.timeout.ms", "20000000") 

  28. props.put("producer.type", "sync") 


  29. val producer = new KafkaProducer[String,String](props) 

  30. for(i <- 1001 to 2000){ 

  31. val key = UUID.randomUUID().toString.substring(0,5) 

  32. val value = "fly_" + i + "_" + key 

  33. producer.send(new ProducerRecord[String, String](topics,key, value))//.get() 





  34. producer.flush() 






生产的数据格式为(key,value) = (uuid, fly_i_key) 的形式

spark streaming 读取kafka并保存到hbase

当kafka里面有数据后,使用spark streaming 读取,并存。直接上代码:

  1. import java.util.UUID 


  2. import org.apache.hadoop.hbase.HBaseConfiguration 

  3. import org.apache.hadoop.hbase.client.{Mutation, Put} 

  4. import org.apache.hadoop.hbase.io.ImmutableBytesWritable 

  5. import org.apache.hadoop.hbase.mapreduce.TableOutputFormat 

  6. import org.apache.hadoop.hbase.util.Bytes 

  7. import org.apache.hadoop.mapred.JobConf 

  8. import org.apache.hadoop.mapreduce.OutputFormat 

  9. import org.apache.kafka.clients.consumer.ConsumerRecord 

  10. import org.apache.kafka.common.serialization.StringDeserializer 

  11. import org.apache.spark.rdd.RDD 

  12. import org.apache.spark.sql.SparkSession 

  13. import org.apache.spark.streaming.kafka010.ConsumerStrategies.Subscribe 

  14. import org.apache.spark.streaming.kafka010.KafkaUtils 

  15. import org.apache.spark.streaming.kafka010.LocationStrategies.PreferConsistent 

  16. import org.apache.spark.streaming.{Seconds, StreamingContext} 


  17. /** 

  18. * spark streaming 写入到hbase 

  19. * Sparkstreaming读取Kafka消息再结合SparkSQL,将结果保存到HBase 

  20. */ 



  21. object OBDSQL { 

  22. case class Person(name: String, age: Int, key: String) 


  23. def main(args: Array[String]): Unit = { 

  24. val spark = SparkSession 

  25. .builder() 

  26. .appName("sparkSql") 

  27. .master("local[4]") 

  28. .getOrCreate() 


  29. val sc = spark.sparkContext 


  30. val ssc = new StreamingContext(sc, Seconds(5)) 


  31. val topics = Array("test") 

  32. val kafkaParams = Map( 

  33. "bootstrap.servers" -> "localhost:9092,anotherhost:9092", 

  34. "key.deserializer" -> classOf[StringDeserializer], 

  35. "value.deserializer" -> classOf[StringDeserializer], 

  36. // "group.id" -> "use_a_separate_group_id_for_each_stream", 

  37. "group.id" -> "use_a_separate_group_id_for_each_stream_fly", 

  38. // "auto.offset.reset" -> "latest", 

  39. "auto.offset.reset" -> "earliest", 

  40. // "auto.offset.reset" -> "none", 

  41. "enable.auto.commit" -> (false: java.lang.Boolean) 




  42. val lines = KafkaUtils.createDirectStream[String, String]( 

  43. ssc, 

  44. PreferConsistent, 

  45. Subscribe[String, String](topics, kafkaParams) 




  46. // lines.map(record => (record.key, record.value)).print() 

  47. // lines.map(record => record.value.split("_")).map(x=> (x(0),x(1), x(2))).print() 


  48. lines.foreachRDD((rdd: RDD[ConsumerRecord[String, String]]) => { 

  49. import spark.implicits._ 

  50. if (!rdd.isEmpty()) { 


  51. // temp table 

  52. rdd.map(_.value.split("_")).map(p => Person(p(0), p(1).trim.toInt, p(2))).toDF.createOrReplaceTempView("temp") 


  53. // use spark sql 

  54. val rs = spark.sql("select * from temp") 


  55. // create hbase conf 

  56. val hconf = HBaseConfiguration.create 

  57. hconf.set("hbase.zookeeper.quorum", "localhost"); //ZKFC 

  58. hconf.set("hbase.zookeeper.property.clientPort", "2181") 

  59. hconf.set("hbase.defaults.for.version.skip", "true") 

  60. hconf.set(TableOutputFormat.OUTPUT_TABLE, "t1") // t1是表名, 表里面有一个列簇 cf1 

  61. hconf.setClass("mapreduce.job.outputformat.class", classOf[TableOutputFormat[String]], classOf[OutputFormat[String, Mutation]]) 

  62. val jobConf = new JobConf(hconf) 


  63. // convert every line to hbase lines 

  64. rs.rdd.map(line => { 

  65. val put = new Put(Bytes.toBytes(UUID.randomUUID().toString.substring(0, 9))) 

  66. put.addColumn(Bytes.toBytes("cf1") 

  67. , Bytes.toBytes("name") 

  68. , Bytes.toBytes(line.get(0).toString) 



  69. put.addColumn(Bytes.toBytes("cf1") 

  70. , Bytes.toBytes("age") 

  71. , Bytes.toBytes(line.get(1).toString) 



  72. put.addColumn(Bytes.toBytes("cf1") 

  73. , Bytes.toBytes("key") 

  74. , Bytes.toBytes(line.get(2).toString) 



  75. (new ImmutableBytesWritable, put) 

  76. }).saveAsNewAPIHadoopDataset(jobConf) 



  77. }) 


  78. lines.map(record => record.value.split("_")).map(x=> (x(0),x(1), x(2))).print() 


  79. ssc start() 

  80. ssc awaitTermination() 







Spark Streaming接收Kafka数据存储到Hbase的更多相关文章

  1. demo1 spark streaming 接收 kafka 数据java代码WordCount示例

    1. 首先启动zookeeper windows上的安装见zk 02之 Windows安装和使用zookeeper 启动后见: 2. 启动kafka windows的安装kafka见Windows上搭 ...

  2. spark streaming 接收 kafka 数据java代码WordCount示例

    http://www.cnblogs.com/gaopeng527/p/4959633.html

  3. Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二十二)Spark Streaming接收流数据及使用窗口函数

    官网文档:<http://spark.apache.org/docs/latest/streaming-programming-guide.html#a-quick-example> Sp ...

  4. spark streaming 接收kafka消息之五 -- spark streaming 和 kafka 的对接总结

    Spark streaming 和kafka 处理确保消息不丢失的总结 接入kafka 我们前面的1到4 都在说 spark streaming 接入 kafka 消息的事情.讲了两种接入方式,以及s ...

  5. spark streaming 接收kafka消息之四 -- 运行在 worker 上的 receiver

    使用分布式receiver来获取数据使用 WAL 来实现 exactly-once 操作: conf.set("spark.streaming.receiver.writeAheadLog. ...

  6. spark streaming 接收kafka消息之一 -- 两种接收方式

    源码分析的spark版本是1.6. 首先,先看一下 org.apache.spark.streaming.dstream.InputDStream 的 类说明: This is the abstrac ...

  7. spark streaming 接收kafka消息之二 -- 运行在driver端的receiver

    先从源码来深入理解一下 DirectKafkaInputDStream 的将 kafka 作为输入流时,如何确保 exactly-once 语义. val stream: InputDStream[( ...

  8. spark streaming 接收kafka消息之三 -- kafka broker 如何处理 fetch 请求

    首先看一下 KafkaServer 这个类的声明: Represents the lifecycle of a single Kafka broker. Handles all functionali ...

  9. Spark streaming消费Kafka的正确姿势

    前言 在游戏项目中,需要对每天千万级的游戏评论信息进行词频统计,在生产者一端,我们将数据按照每天的拉取时间存入了Kafka当中,而在消费者一端,我们利用了spark streaming从kafka中不 ...

随机推荐

  1. distpicker三级联动,动态改变省市信息

    一.引入3个js文件 <script type="text/javascript" src="js/distpicker.data.js">< ...

  2. 数据库mysql原生代码基本操作

    创建表: CREATE TABLE `biao` ( `id` int(10) unsigned NOT NULL AUTO_INCREMENT COMMENT '测试表', `createtime` ...

  3. HTML--使用提交按钮,提交数据

    在表单中有两种按钮可以使用,分别为:提交按钮.重置.这一小节讲解提交按钮:当用户需要提交表单信息到服务器时,需要用到提交按钮. 语法: <input type="submit" ...

  4. ACM_三角形蛇形矩阵

    三角形蛇形矩阵 Time Limit: 2000/1000ms (Java/Others) Problem Description: 小铠觉得各类题型是要温故而知新的,所以他叫小发出一道类似做过的题. ...

  5. Kafka的3节点集群详细启动步骤(Zookeeper是外装)

    首先,声明,kafka集群是搭建在hadoop1.hadoop2和hadoop3机器上. kafka_2.10-0.8.1.1.tgz的1或3节点集群的下载.安装和配置(图文详细教程)绝对干货 如下分 ...

  6. Java系列学习(十)-包与权限修饰符

    1.形式参数和返回值的问题 (1)形式参数: A:类名:需要该类的对象 B:抽象类名:需要改类的子类对象 C:接口名:需要该接口的实现对象 (2)返回值类型: A:类名:抽象类名:返回的是该类的对象 ...

  7. DML和DQL语句

    DML操作: a.插入单行数据:      INSERT INTO 表名(列名,列名,...) VALUE(列值,列值,...); 表的字段名是可选的,如果省略,则一次插入所有字段 多个列表和多个值之 ...

  8. 9.Hierarchy Editor

    Hierarchy Editor(层次编辑器) 用于定义3D图层的结构,向Ventuz渲染引擎发出“命令”,并指定命令的发生顺序.通常,每个层次节点都会导致对GPU的一个或多个调用,例如设置材质或渲染 ...

  9. [ Nowcoder Contest 165 #D ] 合法括号序列

    \(\\\) \(Description\) 键盘上有三个键,敲击效果分别是: 在输出序列尾部添加一个左括号 在输出序列尾部添加一个右括号 删除输出序列尾部的第一个元素,若输出序列为空,则什么都不发生 ...

  10. Android 微信网址分享添加网络图片

    public static void share(String CustomEventData,String title,String titlle_detail,String imgUrl)thro ...