HBase Bulk Loading
将数据导入到HBase有三种方式:(1) Mapreduce,输出为TableOutputFormat.(2) 用HBase API .(3)Bulk Loading。对于大量的数据入库,第三种数据是最为有效的。
下图描述了Bulk Loading的过程:先将数据(MySQL ,Oracle ,文本文件等)加载到HDFS,通过MapReduce 将数据做成HFile (HFileOutPutForm)。然后使用HBase提供的CompleteBulkLoad(LoadIncrementalHFiles)工具加载到HBase中,这个过程很快,而且不很耗内存,不影响在线的Hbase
集群的正常操作。因为这个过程不需要结果WAL 和Memstore.

注意事项:
(1)配置一个total order partitioner。
(2)reduce 个数要和表的region 数目匹配。
(3)MR 输出的Key/Value 类型要和HFileOutPutFormat的匹配。
(4)reduce 采用KeyValueSortReducer 或者PutSortReducer。
应用场景:
(1)集群上线,原始数据集加载。
(2)数据增量。需要定期将MySql(Oracle) 的数据导入HBase。
(3)经常性的大批量入库。
对于CSV文件的加载:
hadoop jar /usr/lib/hbase/hbase-0.94.6-cdh4.3.0-
security.jar importtsv
-Dimporttsv.separator=,
-Dimporttsv.bulk.output=output
-Dimporttsv.columns=HBASE_ROW_KEY,f:count wordcount word_count.csv
该文件的数据格式为---> rowkey,列:值 。
导入到的表名为wordcount ,数据文件为word_count.csv
这样做,不会生成wordcount表。
执行
hbase org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles output wordcount
入库完成。
hadoop jar /usr/lib/hbase/hbase-0.94.6-cdh4.3.0-
security.jar importtsv
-Dimporttsv.separator=,
-Dimporttsv.columns=HBASE_ROW_KEY,f:count wordcount word_count.csv
这样做一步到位,直接入库。
或者用
HADOOP_CLASSPATH=`${HBASE_HOME}/bin/hbase classpath` ${HADOOP_HOME}/bin/hadoop jar ${HBASE_HOME}/hbase-VERSION.jar completebulkload <hdfs://storefileoutput> <tablename>
同样 一步到位,直接入库。
下面是一个MR生成HFile的例子:
import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.KeyValue;import org.apache.hadoop.hbase.client.HTable;import org.apache.hadoop.hbase.io.ImmutableBytesWritable;import org.apache.hadoop.hbase.mapreduce.HFileOutputFormat;import org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles;import org.apache.hadoop.mapreduce.Job;import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;import org.apache.hadoop.mapreduce.lib.input.TextInputFormat;import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;import org.apache.hadoop.util.GenericOptionsParser;/*** HBase bulk import example<br>* Data preparation MapReduce job driver* <ol>* <li>args[0]: HDFS input path* <li>args[1]: HDFS output path* <li>args[2]: HBase table name* </ol>*/public class Driver {public static void main(String[] args) throws Exception {Configuration conf = new Configuration();args = new GenericOptionsParser(conf, args).getRemainingArgs();/** NBA Final 2010 game 1 tip-off time (seconds from epoch)* Thu, 03 Jun 2010 18:00:00 PDT*/conf.setInt("epoch.seconds.tipoff", 1275613200);conf.set("hbase.table.name", args[2]);// Load hbase-site.xmlHBaseConfiguration.addHbaseResources(conf);Job job = new Job(conf, "HBase Bulk Import Example");job.setJarByClass(HBaseKVMapper.class);job.setMapperClass(HBaseKVMapper.class);job.setMapOutputKeyClass(ImmutableBytesWritable.class);job.setMapOutputValueClass(KeyValue.class);job.setInputFormatClass(TextInputFormat.class);HTable hTable = new HTable(args[2]);// Auto configure partitioner and reducerHFileOutputFormat.configureIncrementalLoad(job, hTable);FileInputFormat.addInputPath(job, new Path(args[0]));FileOutputFormat.setOutputPath(job, new Path(args[1]));job.waitForCompletion(true);}}import java.io.IOException;import java.util.Locale;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.KeyValue;import org.apache.hadoop.hbase.io.ImmutableBytesWritable;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Mapper;import org.joda.time.DateTime;import org.joda.time.DateTimeZone;import org.joda.time.format.DateTimeFormat;import org.joda.time.format.DateTimeFormatter;import au.com.bytecode.opencsv.CSVParser;/*** HBase bulk import example* <p>* Parses Facebook and Twitter messages from CSV files and outputs* <ImmutableBytesWritable, KeyValue>.* <p>* The ImmutableBytesWritable key is used by the TotalOrderPartitioner to map it* into the correct HBase table region.* <p>* The KeyValue value holds the HBase mutation information (column family,* column, and value)*/public class HBaseKVMapper extendsMapper<LongWritable, Text, ImmutableBytesWritable, KeyValue> {final static byte[] SRV_COL_FAM = "srv".getBytes();final static int NUM_FIELDS = 16;CSVParser csvParser = new CSVParser();int tipOffSeconds = 0;String tableName = "";DateTimeFormatter p = DateTimeFormat.forPattern("MMM dd, yyyy HH:mm:ss").withLocale(Locale.US).withZone(DateTimeZone.forID("PST8PDT"));ImmutableBytesWritable hKey = new ImmutableBytesWritable();KeyValue kv;/** {@inheritDoc} */@Overrideprotected void setup(Context context) throws IOException,InterruptedException {Configuration c = context.getConfiguration();tipOffSeconds = c.getInt("epoch.seconds.tipoff", 0);tableName = c.get("hbase.table.name");}/** {@inheritDoc} */@Overrideprotected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {if (value.find("Service,Term,") > -1) {// Skip headerreturn;}String[] fields = null;try {fields = csvParser.parseLine(value.toString());} catch (Exception ex) {context.getCounter("HBaseKVMapper", "PARSE_ERRORS").increment(1);return;}if (fields.length != NUM_FIELDS) {context.getCounter("HBaseKVMapper", "INVALID_FIELD_LEN").increment(1);return;}// Get game offset in seconds from tip-offDateTime dt = null;try {dt = p.parseDateTime(fields[9]);} catch (Exception ex) {context.getCounter("HBaseKVMapper", "INVALID_DATE").increment(1);return;}int gameOffset = (int) ((dt.getMillis() / 1000) - tipOffSeconds);String offsetForKey = String.format("%04d", gameOffset);String username = fields[2];if (username.equals("")) {username = fields[3];}// Key: e.g. "1200:twitter:jrkinley"hKey.set(String.format("%s:%s:%s", offsetForKey, fields[0], username).getBytes());// Service columnsif (!fields[0].equals("")) {kv = new KeyValue(hKey.get(), SRV_COL_FAM,HColumnEnum.SRV_COL_SERVICE.getColumnName(), fields[0].getBytes());context.write(hKey, kv);}if (!fields[1].equals("")) {kv = new KeyValue(hKey.get(), SRV_COL_FAM,HColumnEnum.SRV_COL_TERM.getColumnName(), fields[1].getBytes());context.write(hKey, kv);}if (!fields[2].equals("")) {kv = new KeyValue(hKey.get(), SRV_COL_FAM,HColumnEnum.SRV_COL_USERNAME.getColumnName(), fields[2].getBytes());context.write(hKey, kv);}if (!fields[3].equals("")) {kv = new KeyValue(hKey.get(), SRV_COL_FAM,HColumnEnum.SRV_COL_NAME.getColumnName(), fields[3].getBytes());context.write(hKey, kv);}if (!fields[4].equals("")) {kv = new KeyValue(hKey.get(), SRV_COL_FAM,HColumnEnum.SRV_COL_UPDATE.getColumnName(), fields[4].getBytes());context.write(hKey, kv);}if (!fields[9].equals("")) {kv = new KeyValue(hKey.get(), SRV_COL_FAM,HColumnEnum.SRV_COL_TIME.getColumnName(), fields[9].getBytes());context.write(hKey, kv);}context.getCounter("HBaseKVMapper", "NUM_MSGS").increment(1);/** Output number of messages per quarter and before/after game. This should* correspond to the number of messages per region in HBase*/if (gameOffset < 0) {context.getCounter("QStats", "BEFORE_GAME").increment(1);} else if (gameOffset < 900) {context.getCounter("QStats", "Q1").increment(1);} else if (gameOffset < 1800) {context.getCounter("QStats", "Q2").increment(1);} else if (gameOffset < 2700) {context.getCounter("QStats", "Q3").increment(1);} else if (gameOffset < 3600) {context.getCounter("QStats", "Q4").increment(1);} else {context.getCounter("QStats", "AFTER_GAME").increment(1);}}}
/*** HBase table columns for the 'srv' column family*/public enum HColumnEnum {SRV_COL_SERVICE ("service".getBytes()),SRV_COL_TERM ("term".getBytes()),SRV_COL_USERNAME ("username".getBytes()),SRV_COL_NAME ("name".getBytes()),SRV_COL_UPDATE ("update".getBytes()),SRV_COL_TIME ("pdt".getBytes());private final byte[] columnName;HColumnEnum (byte[] column) {this.columnName = column;}public byte[] getColumnName() {return this.columnName;}}
HBase Bulk Loading的更多相关文章
- How-to: Use HBase Bulk Loading, and Why
How-to: Use HBase Bulk Loading, and Why http://blog.cloudera.com/blog/2013/09/how-to-use-hbase-bulk- ...
- How To Use Hbase Bulk Loading
最近在学习hbase,学到利用如何将数据导入到hbase中,采用的方式是批量导入:bulk load的方法,中间出现了一些问题,下面将执行的步骤记录一下,以供日后查阅: 说明:导入的方式是将csv文件 ...
- HBase高速导入数据--BulkLoad
Apache HBase是一个分布式的.面向列的开源数据库.它能够让我们随机的.实时的訪问大数据.可是如何有效的将数据导入到HBase呢?HBase有多种导入数据的方法.最直接的方法就是在MapRed ...
- 通过BulkLoad的方式快速导入海量数据
摘要 加载数据到HBase的方式有多种,通过HBase API导入或命令行导入或使用第三方(如sqoop)来导入或使用MR来批量导入(耗费磁盘I/O,容易在导入的过程使节点宕机),但是这些方式不是慢就 ...
- Sqoop学习之路 (一)
一.概述 sqoop 是 apache 旗下一款“Hadoop 和关系数据库服务器之间传送数据”的工具. 核心的功能有两个: 导入.迁入 导出.迁出 导入数据:MySQL,Oracle 导入数据到 H ...
- Hadoop生态圈-Sqoop部署以及基本使用方法
Hadoop生态圈-Sqoop部署以及基本使用方法 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与 ...
- sqoop导入数据
来源https://www.cnblogs.com/qingyunzong/p/8807252.html 一.概述 sqoop 是 apache 旗下一款“Hadoop 和关系数据库服务器之间传送数据 ...
- 【Sqoop学习之二】Sqoop使用
环境 sqoop-1.4.6 一.基本命令1.帮助命令 [root@node101 ~]# sqoop help Warning: /usr/local/sqoop-/../hbase does no ...
- Bulk Load-HBase数据导入最佳实践
一.概述 HBase本身提供了非常多种数据导入的方式,通常有两种经常使用方式: 1.使用HBase提供的TableOutputFormat,原理是通过一个Mapreduce作业将数据导入HBase 2 ...
随机推荐
- 阻塞IO服务器模型之多线程服务器模型
针对单线程服务器模型的特点,我们可以对其进行改进,使之能对多个客户端同时进行响应.最简单的改进即是使用多线程(或多进程)服务器模型,在应用层级别,我们一般采用多线程模式.多线程能让多个客户端同时请求, ...
- x264源代码简单分析:编码器主干部分-1
===================================================== H.264源代码分析文章列表: [编码 - x264] x264源代码简单分析:概述 x26 ...
- JBOSS EAP 6 系列三 Oracle、Mysql数据源的配置(驱动)—认识模块的使用
本文介绍JBOSS EAP 6.2中Oracle数据源的配置方式.结合之前JBOSS EAP 6.2新功能,本文初识JBOSS模块申明式容器这一特性. 模块申明式容器:JBOSS EAP不再有lib的 ...
- Android WebView选择本地文件上传
This sample demonstrate android webview choose file to upload. I just implement the client code ,the ...
- Runtime系列(二)--Runtime的使用场景
Runtime 理解介绍的文章非常多,我只想讲讲Runtime 可以用在哪里,而我在项目里哪些地方用到了runtime.多以实际使用过程为主,来介绍runtime的使用. * 那么runtime 怎么 ...
- 剑指Offer——贪心算法
剑指Offer--贪心算法 一.基本概念 所谓贪心算法是指,在对问题求解时,总是做出在当前看来是最好的选择.也就是说,不从整体最优上加以考虑,他所做出的仅是在某种意义上的局部最优解.虽然贪心算法不能对 ...
- 【一天一道LeetCode】#290. Word Pattern
一天一道LeetCode 本系列文章已全部上传至我的github,地址:ZeeCoder's Github 欢迎大家关注我的新浪微博,我的新浪微博 欢迎转载,转载请注明出处 (一)题目 Given a ...
- [django]项目打包构建
django项目的结构大体上都是类似,打包主要的功能就是把一些不需要部署的文件剔除,把需要部署的文件直接压缩打包. 这里还想集成一个配置文件模板生成配置文件的过程,或者写一个配置文件生成的工具,不用每 ...
- JAVA之旅(三十)——打印流PrintWriter,合并流,切割文件并且合并,对象的序列化Serializable,管道流,RandomAccessFile,IO其他类,字符编码
JAVA之旅(三十)--打印流PrintWriter,合并流,切割文件并且合并,对象的序列化Serializable,管道流,RandomAccessFile,IO其他类,字符编码 三十篇了,又是一个 ...
- iOS中 自定义cell升级版 (高级)
接上次分享的自定义cell进行了优化:http://blog.csdn.net/qq_31810357/article/details/49611255 指定根视图: self.window.root ...