平时用于从生产环境hbase到导出数据到测试环境。

导入数据:

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.io.IOException;
import java.util.ArrayList;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Set; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.HConnection;
import org.apache.hadoop.hbase.client.HConnectionManager;
import org.apache.hadoop.hbase.client.HTableInterface;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.util.Bytes; @SuppressWarnings("deprecation")
public class HbaseImport { public static void main(String args[]) throws Exception{
Configuration conf = HBaseConfiguration.create();
HConnection connection = HConnectionManager.createConnection(conf);
List<Map<String,String>> datas = getDatas("d:\\hbaseData\\datas.txt",connection);
wirteHbase(connection,"EVENT_LOG_LBS",datas);
} public static List<Map<String,String>> getDatas(String filePath,HConnection connection) throws IOException{
List<Map<String,String>> datas = new ArrayList<Map<String,String>>();
File file = new File(filePath);
BufferedReader br = new BufferedReader(new FileReader(file));
String tr = null;
while(((tr = br.readLine()) != null)){
String subData = tr.substring(1);
Map<String,String> data = new HashMap<String,String>();
String[] ss = subData.split("\\|");
for(String s : ss){
String[] tds = s.split("=");
String v = "";
if(tds.length == 2){
v = tds[1];
}
data.put(tds[0], v);
}
datas.add(data);
}
br.close();
return datas;
} public static void wirteHbase(HConnection connection,String tableName,List<Map<String,String>>datas) throws IOException{
HTableInterface t = connection.getTable(tableName);
for(Map<String,String> map : datas){
Set<String> ks = map.keySet();
Put put = new Put(Bytes.toBytes(map.get("rowkey")));
for(String key : ks){
put.add(Bytes.toBytes("f1"),Bytes.toBytes(key),Bytes.toBytes(map.get(key)));
}
t.put(put);
}
}
}

导出数据:

package hbase;
import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.PrintWriter;
import java.util.ArrayList;
import java.util.Calendar;
import java.util.Date;
import java.util.List; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.HConnection;
import org.apache.hadoop.hbase.client.HConnectionManager;
import org.apache.hadoop.hbase.client.HTableInterface;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.util.Bytes; @SuppressWarnings("deprecation")
public class HbaseExport { public static Date getPassSevenDays(int day){
Calendar calendar = Calendar.getInstance();
int year = calendar.get(Calendar.YEAR);
int dayOfYear = calendar.get(Calendar.DAY_OF_YEAR);
int j = 0;
for(int i = 0;i < day; i++){
calendar.set(Calendar.DAY_OF_YEAR, dayOfYear - j);
if(calendar.get(Calendar.YEAR) < year){
//跨年了
j = 1;
//更新 标记年
year = year + 1;
//重置日历
calendar.set(year, Calendar.DECEMBER,31);
//重新获取dayOfYear
dayOfYear = calendar.get(Calendar.DAY_OF_YEAR);
}else{
j = j + 1;
}
}
return calendar.getTime();
} public static Scan setScanCondition(Scan scan) throws IOException{
Date newDay = new Date();
Date otherDays = getPassSevenDays(7); scan.setTimeRange(otherDays.getTime(),newDay.getTime());
scan.addColumn("f1".getBytes(), "LS_certifier_no".getBytes());
scan.addColumn("f1".getBytes(), "LS_location".getBytes());
scan.addColumn("f1".getBytes(), "LS_phone_no".getBytes());
scan.addColumn("f1".getBytes(), "LS_longitude".getBytes());
scan.addColumn("f1".getBytes(), "LS_latitude".getBytes());
scan.addColumn("f1".getBytes(), "date".getBytes());
scan.addColumn("f1".getBytes(), "time".getBytes());
scan.addColumn("f1".getBytes(), "hourOfDay".getBytes()); return scan;
} public static void main(String args[]) throws IOException{
Configuration conf = HBaseConfiguration.create();
HConnection connection = HConnectionManager.createConnection(conf);
String tableName = "EVENT_LOG_LBS_HIS";
HTableInterface table = connection.getTable(tableName); Scan scan = new Scan();
setScanCondition(scan); ResultScanner rs = table.getScanner(scan);
for(Result r : rs){
List<String> lines = new ArrayList<String>();
StringBuilder sb = new StringBuilder();
sb.append(" rowkey=" + Bytes.toString(r.getRow()));
for(Cell cell : r.rawCells()){
String name = Bytes.toString(CellUtil.cloneQualifier(cell));
String value = Bytes.toString(CellUtil.cloneValue(cell));
System.out.println(name + "=" + value);
sb.append("|" + name + "=" + value);
}
lines.add(sb.toString());
System.out.println("--------------------------");
writeFile(lines,"/home/hdfs/datas");
} } public static void writeFile(List<String> lines,String filePath) throws FileNotFoundException{
File file = new File(filePath);
PrintWriter pw = new PrintWriter(new FileOutputStream(file,true));
for(String line : lines){
pw.append(line);
pw.append("\n");
}
pw.flush();
pw.close();
} }

  

Hbase数据导入导出的更多相关文章

  1. HBase数据导入导出工具

    hbase中自带一些数据导入.导出工具 1. ImportTsv直接导入 1.1 hbase中建表 create 'testtable4','cf1','cf2' 1.2 准备数据文件data.txt ...

  2. Sqoop -- 用于Hadoop与关系数据库间数据导入导出工作的工具

    Sqoop是一款开源的工具,主要用于在Hadoop相关存储(HDFS.Hive.HBase)与传统关系数据库(MySql.Oracle等)间进行数据传递工作.Sqoop最早是作为Hadoop的一个第三 ...

  3. 通过 Sqoop1.4.7 将 Mysql5.7、Hive2.3.4、Hbase1.4.9 之间的数据导入导出

    目录 目录 1.什么是 Sqoop? 2.下载应用程序及配置环境变量 2.1.下载 Sqoop 1.4.7 2.2.设置环境变量 2.3.设置安装所需环境 3.安装 Sqoop 1.4.7 3.1.修 ...

  4. HData——ETL 数据导入/导出工具

    HData是一个异构的ETL数据导入/导出工具,致力于使用一个工具解决不同数据源(JDBC.Hive.HDFS.HBase.MongoDB.FTP.Http.CSV.Excel.Kafka等)之间数据 ...

  5. ITTC数据挖掘平台介绍(五) 数据导入导出向导和报告生成

    一. 前言 经过了一个多月的努力,软件系统又添加了不少新功能.这些功能包括非常实用的数据导入导出,对触摸进行优化的画布和画笔工具,以及对一些智能分析的报告生成模块等.进一步加强了平台系统级的功能. 马 ...

  6. 从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上

    阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并 ...

  7. oracle数据导入/导出

    Oracle数据导入导出imp/exp 功能:Oracle数据导入导出imp/exp就相当与oracle数据还原与备份.   大多情况都可以用Oracle数据导入导出完成数据的备份和还原(不会造成数据 ...

  8. Oracle数据导入导出

    Oracle数据导入导出imp/exp 在oracle安装目录下有EXP.EXE与IMP.EXE这2个文件,他们分别被用来执行数据库的导入导出.所以Oracle数据导入导出imp/exp就相当与ora ...

  9. SQL SERVER 和ACCESS的数据导入导出

            //批量导入Access         string filepath = Server.MapPath("student.mdb");         stri ...

随机推荐

  1. sphinx 注意点

    强制更新索引indexer --all --rotate合并索引indexer --merge index1 index2 --rotate No fields in schema - will no ...

  2. 第三个Sprint总结

    工作进展:项目基本已经完成 工作状况:                                      

  3. Java EE 编程中路径

    版权声明:未经博主允许,不得转载 首先我们要限定一个范围,是一个项目,或是以个访问地址..就先以一个项目为限定的范围 前述: 学过物理学的都知道相对运动和绝对运动, 虽然是相似的概念,但这里的要简单得 ...

  4. HTTP协议 (三) 压缩

    之前写过一个篇 [HTTP协议详解] ,这次继续介绍HTTP协议中的压缩. 本文会使用Fiddler来查看HTTP request和Response, 如果不熟悉这个工具,可以先参考[Fiddler教 ...

  5. http 学习 1-1 chapter1-HTTP概述

    Web浏览器.服务器和相关的Web应用程序都是通过HTTP相互通信的.HTTP是现代全球因特网中使用的公共语言. 1.1HTTP – 因特网的多媒体信使 HTTP使用的是可靠的数据传输协议,确保数据在 ...

  6. div各种距离 详细解释图

    详细博文介绍:http://blog.csdn.net/fswan/article/details/17238933

  7. Swift处理堆栈问题——给定两组序列,其中一个序列表示栈的push 顺序,判断另一个序列有没有可能是对应的pop 顺序

    题目:输入两个整数序列.其中一个序列表示栈的push 顺序,判断另一个序列有没有可能是对应的pop 顺序.为了简单起见,我们假设push 序列的任意两个整数都是不相等的.比如输入的push 序列是1. ...

  8. C++ STL泛型编程——在ACM中的运用

    学习过C++的朋友们应该对STL和泛型编程这两个名词不会陌生.两者之间的关系不言而喻,泛型编程的思想促使了STL的诞生,而STL则很好地体现了泛型编程这种思想.这次想简单说一下STL在ACM中的一些应 ...

  9. 《C与指针》第十二章练习

    本章例程 //12.3 #include <stdio.h> #include <stdlib.h> typedef struct NODE{ struct NODE *lin ...

  10. php操作Memcache

    一.memcache基本的介绍 是一个高性能的分布式内存对象缓存系统. 和mysql比较,进行理解memcache (1)该软件是一个c/s架构, (2)mysql的数据是存储到哪里的?是存储到磁盘里 ...