1.概述

随着大数据技术的不断发展,处理海量数据的需求变得愈发迫切。MapReduce作为一种分布式计算模型,为处理大规模数据提供了有效的解决方案。在这篇博客中,我们将探讨如何使用MapReduce框架读取快照表(Snapshot Table)的数据。快照表是一种记录某一时刻系统状态的表格,通过MapReduce读取,可以有效地进行数据分析和处理。

2.内容

HBase的快照表提供了一种机制,允许用户在不中断正在进行的写操作的情况下,对表的状态进行快照,并在之后的时间点恢复到这个快照状态。快照表在以下方面发挥着关键的作用:

  • 备份和还原: 允许用户创建表的快照,以应对数据误删除或损坏的情况。通过还原到先前的快照状态,可以方便地进行数据修复。
  • 版本控制: 提供了一种历史版本的管理机制,使得用户可以在需要时回溯到先前的表状态。这对于数据历史记录和分析非常有用。
  • 测试和开发: 在开发和测试环境中,快照表使得可以在不影响生产环境的情况下创建和还原测试数据。

2.1 创建快照表

HBase快照表的实现是建立在HBase的架构之上的,主要涉及以下几个关键步骤:

1.创建快照

用户可以通过HBase Shell或HBase API创建表的快照。创建快照时,HBase会记录当前表的状态,并生成一个标识符。

hbase> snapshot 'mytable', 'snapshot1'

2.还原快照

用户可以使用已创建的快照标识符来还原表的状态。在还原的过程中,HBase会回滚表的状态到快照的时间点。

hbase> disable 'mytable'
hbase> restore_snapshot 'snapshot1'
hbase> enable 'mytable'

3.查看和删除快照

用户可以查看系统中存在的快照列表,并在不需要的时候删除快照。

hbase> list_snapshots
hbase> delete_snapshot 'snapshot1'

4.快照的存储

HBase会将快照存储在HDFS上,确保持久性和可靠性。这意味着快照不会受到HBase的单点故障的影响。

5.分布式一致性

HBase快照的实现考虑到了分布式环境下的一致性和原子性。在创建和还原快照的过程中,HBase确保所有Region Server都能够参与操作,以保证数据的一致性。

3.HBase Scan

HBase的Scan和Get操作在数据获取方式上存在显著的区别,前者是串行获取数据,而后者则采用并行方式。这种不同的处理方式可能让人感到有些出乎意料,让我们深入了解这其中的原因。

Scan操作在HBase中有四种模式:scan、snapScan、scanMR和snapshotscanMR。前两者采用串行方式,而后两者则运用MapReduce机制,其中SnapshotScanMR性能最为出众。

首先,我们需要理解什么是快照(snapshot)。快照是HBase数据表元数据的一个静态快照,注意,这里并不包括数据本身。在HBase中,数据的存储由HDFS管理,和关系型数据库类似,但不同之处在于一旦数据写入,就不再修改。更新和删除等操作并不是直接修改HFile,而是填充墓碑文件。因此,快照具有很高的价值,例如,可以快速创建一个HBase表的副本,仅拷贝表结构,重用原始表的HDFS数据。

上述提到的快照在Scan操作中也有一定的应用场景,尤其是在SnapshotScan和SnapshotScanMR模式中。需要注意的是,在MapReduce中,Scan模式不再是最开始提到的串行查询,而是采用并行查询机制,底层是通过MapReduce实现的,因此性能更高,尤其是在多个Region的查询场景下。

HBase Scan查询实现步骤如下:

  • 业务通过HBase Client进行调用,首先检查缓存是否存在数据,如果有则直接返回数据。
  • 如果缓存中没有数据,将向RegionServer发送请求,继续获取下一批记录。
  • 服务器端接收到next请求后,通过查询BlockCache、HFile、Memstore的流程逐行返回数据。

这种API每次返回少量条(比如200条)的调用模式旨在减轻网络资源和HBase客户端端内存的压力。因此,从实现上来看,scanAPI更适合处理少量数据的场景。

对于处理海量数据的查询,我们需要考虑使用上文提到的MapReduce(MR)框架。MR框架分为两种主要类型:TableScanMR(对应的处理类:TableMapReduceUtil.initTableMapperJob)和SnapshotScanMR(对应处理类:TableMapReduceUtil.initSnapshotMapperJob)。下面的两张图展示了它们在架构上的差异:

  • TableScanMR: 该类型适用于对HBase表进行大规模的扫描和查询。通过TableMapReduceUtil.initTableMapperJob初始化Mapper任务,可以在整个表上并行处理数据。
  • SnapshotScanMR: 与TableScanMR不同,SnapshotScanMR主要用于对HBase快照表的处理。通过TableMapReduceUtil.initSnapshotMapperJob初始化Mapper任务,能够在HBase快照上并行执行查询操作。

这两种MR框架的选择取决于具体的业务需求和数据规模。在处理海量数据时,MR框架的分布式计算和并行处理能力能够充分发挥,提高处理效率。

可以观察到,两种模式都采用了在客户端通过多线程方式进行并行处理的方法。然而,SnapshotScanMR与TableScanMR相比,不再直接与Region Server进行交互,而是直接在客户端和HDFS之间进行交互。这样的设计有一些优势,例如减轻了Region Server的负担。但值得注意的是,在使用SnapshotScanMR之前,需要在客户端和Region Server之间进行一次交互,以获取snapshot的信息,即HBase的元数据信息,包括表结构和HDFS存储信息。这使得可以跳过Region Server,直接与HDFS地址进行交互。

然而,snapshot也有一些缺点。首先,实时性较差,可能最近的一些数据修改并未在snapshot中体现。这可能导致读取到一些脏数据,即已被删除或更新的数据仍然存在,只是在墓碑记录中。当然,如果经过合并(merge)后,这些脏数据会被清理。其次,由于snapshot是一种静态的快照,可能无法读取到一些最新的数据。

总体而言,SnapshotScanMR的设计优势在于减轻了Region Server的负担,但需要在性能和实时性之间做出权衡。在选择使用SnapshotScanMR时,必须充分了解数据的更新和删除情况,以确保得到准确的查询结果。

3.代码实现

在MapReduce中扫描HBase快照表的代码实现主要涉及Mapper的编写,以及MapReduce作业的配置。以下是一个简单的示例,演示了如何使用MapReduce扫描HBase快照表:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.conf.Configured;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HConstants;
import org.apache.hadoop.hbase.KeyValue;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.hbase.mapreduce.TableSnapshotInputFormat;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.NullWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.util.Tool;
import org.apache.hadoop.util.ToolRunner; import java.io.IOException; public class HBaseSnapshotScanMR extends Configured implements Tool { public static class HBaseSnapshotMapper extends Mapper<ImmutableBytesWritable, Result, NullWritable, Text> { @Override
protected void map(ImmutableBytesWritable key, Result value, Context context) throws IOException, InterruptedException {
// 处理每一行的数据,这里简单地将每行数据输出到MapReduce的输出
StringBuilder output = new StringBuilder();
for (Cell cell : value.rawCells()) {
output.append(Bytes.toString(CellUtil.cloneValue(cell))).append(",");
} context.write(NullWritable.get(), new Text(output.toString()));
}
} @Override
public int run(String[] args) throws Exception {
Configuration conf = getConf(); // HBase配置
Configuration hbaseConf = HBaseConfiguration.create(conf);
hbaseConf.set(TableInputFormat.SCAN, TableMapReduceUtil.convertScanToString(new Scan())); // MapReduce作业配置
Job job = Job.getInstance(conf, "HBaseSnapshotScanMR");
job.setJarByClass(getClass()); // 设置HBase快照输入格式
TableMapReduceUtil.initTableSnapshotInput(job, args[0], new Path(args[1]), HConstants.HBASE_DIR); // Mapper和Reducer配置
job.setMapperClass(HBaseSnapshotMapper.class);
job.setOutputKeyClass(NullWritable.class);
job.setOutputValueClass(Text.class); // 提交作业
return job.waitForCompletion(true) ? 0 : 1;
} public static void main(String[] args) throws Exception {
int exitCode = ToolRunner.run(new HBaseSnapshotScanMR(), args);
System.exit(exitCode);
}
}

在这个例子中:

  • HBaseSnapshotMapper 类是 Mapper 的具体实现,负责处理每一行的数据,这里简单地将每行数据输出为文本。
  • HBaseSnapshotScanMR 类实现了 Tool 接口,用于配置和运行 MapReduce 作业。
  • 在 run 方法中,配置了 HBase 快照的输入格式,设置了 Mapper 类、输出键值类型等信息。
  • main 方法调用 ToolRunner.run 运行 MapReduce 作业。

运行这个作业时,需要提供两个参数:HBase 表的名称和快照的名称。例如:

hadoop jar HBaseSnapshotScanMR.jar HBaseSnapshotScanMR tableName snapshotName outputDir

4.总结

1.注意事项

  • 确保HBase中的快照表存在,且其中包含所需的数据。
  • 对Mapper和Reducer进行适当的配置,以满足具体的业务需求。
  • 在处理大规模数据时,调整Hadoop和MapReduce的配置参数以提高性能。

2.适用场景

  • 扫描HBase快照表适用于需要处理历史数据、数据版本控制以及数据备份与还原的场景。
  • 使用MapReduce进行处理可以充分发挥Hadoop分布式计算的优势,实现并行化和分布式处理。

总体而言,MapReduce扫描HBase快照表是一种强大的数据处理方法,能够有效处理大规模数据集,提供了分布式计算的优势,同时充分利用了HBase的快照功能来处理历史数据。

5.结束语

这篇博客就和大家分享到这里,如果大家在研究学习的过程当中有什么问题,可以加群进行讨论或发送邮件给我,我会尽我所能为您解答,与君共勉!

另外,博主出书了《Kafka并不难学》和《Hadoop大数据挖掘从入门到进阶实战》,喜欢的朋友或同学, 可以在公告栏那里点击购买链接购买博主的书进行学习,在此感谢大家的支持。关注下面公众号,根据提示,可免费获取书籍的教学视频。

MapReduce和Spark读取HBase快照表的更多相关文章

  1. MapReduce和Spark写入Hbase多表总结

    作者:Syn良子 出处:http://www.cnblogs.com/cssdongl 转载请注明出处 大家都知道用mapreduce或者spark写入已知的hbase中的表时,直接在mapreduc ...

  2. 使用TableSnapshotInputFormat读取Hbase快照数据

    根据快照名称读取hbase快照中的数据,在网上查了好多资料,很少有资料能够给出清晰的方案,根据自己的摸索终于实现,现将代码贴出,希望能给大家有所帮助: public void read(org.apa ...

  3. Spark读取Hbase中的数据

    大家可能都知道很熟悉Spark的两种常见的数据读取方式(存放到RDD中):(1).调用parallelize函数直接从集合中获取数据,并存入RDD中:Java版本如下: JavaRDD<Inte ...

  4. Spark 读取HBase和SolrCloud数据

    Spark1.6.2读取SolrCloud 5.5.1 //httpmime-4.4.1.jar // solr-solrj-5.5.1.jar //spark-solr-2.2.2-20161007 ...

  5. spark读取hbase形成RDD,存入hive或者spark_sql分析

    object SaprkReadHbase { var total:Int = 0 def main(args: Array[String]) { val spark = SparkSession . ...

  6. spark读取hbase(NewHadoopAPI 例子)

    package cn.piesat.controller import java.text.{DecimalFormat, SimpleDateFormat}import java.utilimpor ...

  7. Spark 读取HBase数据

    Spark1.6.2 读取 HBase 1.2.3 //hbase-common-1.2.3.jar //hbase-protocol-1.2.3.jar //hbase-server-1.2.3.j ...

  8. Spark读取HBase

    背景:公司有些业务需求是存储在HBase上的,总是有业务人员找我要各种数据,所以想直接用Spark( shell) 加载到RDD进行计算 摘要: 1.相关环境 2.代码例子 内容 1.相关环境 Spa ...

  9. spark读取hbase数据

    def main(args: Array[String]): Unit = { val hConf = HBaseConfiguration.create(); hConf.set("hba ...

  10. Spark读取Hbase的数据

    val conf = HBaseConfiguration.create() conf.addResource(new Path("/opt/cloudera/parcels/CDH-5.4 ...

随机推荐

  1. 【后端面经-Java】Java创建线程的方法简介

    目录 1. 线程的基本概念 1.1 线程 1.2 线程状态和生命周期 2. 创建线程的四种方法 2.1 继承Thread类 2.2 实现Runnable接口 2.3 实现Callable接口 2.4 ...

  2. 记一次etcd全局锁使用不当导致的事故

    1.背景介绍 前两天,现场的同事使用开发的程序测试时,发现日志中报etcdserver: mvcc: database space exceeded,导致 etcd 无法连接.很奇怪,我们开发的程序只 ...

  3. charAt和substring方法的使用

    charAt和substring方法的使用 一.charAt的相关应用 1.charAt方法 charAt截取单个字符,参数index范围从0开始,length-1截止. 2.语法 public ch ...

  4. 国产开源流批统一的数据同步工具Chunjun入门实战

    @ 目录 概述 定义 特性 部署 安装 版本对应关系 通用配置详解 整体配置 Content 配置 Setting 配置 Local提交 Standalone提交 Json方式使用 SQL方式使用 M ...

  5. ZEGO全新语音聊天室方案,2小时复刻 Clubhouse

    真的火了! 新晋带货王马斯克在 Clubhouse"开房"之后,直接让 Clubhouse 爆火出圈,据说,Clubhouse 平台邀请码现在在ebay上已经卖到了快200刀一个. ...

  6. Unity自定义类使用携程--自身不继承MonoBehaviour

    [TOC] 参考: https://www.jianshu.com/p/67f498cb839b 话不多说,直接上代码 1 using System.Collections; 2 using Unit ...

  7. 运维自动化工具--Ansible

    运维自动化工具Ansible 1. ansible安装 rocky安装 需要先安装 enel源 # yum install -y epel-release 然后再安装ansible # yum ins ...

  8. Linux安装与配置FTP服务

    1.FTP安装与配置 1.1.FTP安装 一般使用yum直接在线安装 # 在线安装FTP yum install -y vsftpd 安装完成后查看ftp状态 # 查看ftp状态 systemctl ...

  9. Unity UGUI的RectMask2D(2D遮罩)组件的介绍及使用

    Unity UGUI的RectMask2D(2D遮罩)组件的介绍及使用 1. 什么是RectMask2D组件? RectMask2D是Unity UGUI中的一个组件,用于实现2D遮罩效果.它可以限制 ...

  10. 2021-7-12 VUE的生命周期

    挂载: beforeCreate created beforeMount mounted:el挂载到实例上时运行 更新: beforeUpdate updated 销毁: beforeDestory ...