平时用于从生产环境hbase到导出数据到测试环境。

导入数据:

import java.io.BufferedReader;
import java.io.File;
import java.io.FileReader;
import java.io.IOException;
import java.util.ArrayList;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Set; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.HConnection;
import org.apache.hadoop.hbase.client.HConnectionManager;
import org.apache.hadoop.hbase.client.HTableInterface;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.util.Bytes; @SuppressWarnings("deprecation")
public class HbaseImport { public static void main(String args[]) throws Exception{
Configuration conf = HBaseConfiguration.create();
HConnection connection = HConnectionManager.createConnection(conf);
List<Map<String,String>> datas = getDatas("d:\\hbaseData\\datas.txt",connection);
wirteHbase(connection,"EVENT_LOG_LBS",datas);
} public static List<Map<String,String>> getDatas(String filePath,HConnection connection) throws IOException{
List<Map<String,String>> datas = new ArrayList<Map<String,String>>();
File file = new File(filePath);
BufferedReader br = new BufferedReader(new FileReader(file));
String tr = null;
while(((tr = br.readLine()) != null)){
String subData = tr.substring(1);
Map<String,String> data = new HashMap<String,String>();
String[] ss = subData.split("\\|");
for(String s : ss){
String[] tds = s.split("=");
String v = "";
if(tds.length == 2){
v = tds[1];
}
data.put(tds[0], v);
}
datas.add(data);
}
br.close();
return datas;
} public static void wirteHbase(HConnection connection,String tableName,List<Map<String,String>>datas) throws IOException{
HTableInterface t = connection.getTable(tableName);
for(Map<String,String> map : datas){
Set<String> ks = map.keySet();
Put put = new Put(Bytes.toBytes(map.get("rowkey")));
for(String key : ks){
put.add(Bytes.toBytes("f1"),Bytes.toBytes(key),Bytes.toBytes(map.get(key)));
}
t.put(put);
}
}
}

导出数据:

package hbase;
import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.PrintWriter;
import java.util.ArrayList;
import java.util.Calendar;
import java.util.Date;
import java.util.List; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.HConnection;
import org.apache.hadoop.hbase.client.HConnectionManager;
import org.apache.hadoop.hbase.client.HTableInterface;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.util.Bytes; @SuppressWarnings("deprecation")
public class HbaseExport { public static Date getPassSevenDays(int day){
Calendar calendar = Calendar.getInstance();
int year = calendar.get(Calendar.YEAR);
int dayOfYear = calendar.get(Calendar.DAY_OF_YEAR);
int j = 0;
for(int i = 0;i < day; i++){
calendar.set(Calendar.DAY_OF_YEAR, dayOfYear - j);
if(calendar.get(Calendar.YEAR) < year){
//跨年了
j = 1;
//更新 标记年
year = year + 1;
//重置日历
calendar.set(year, Calendar.DECEMBER,31);
//重新获取dayOfYear
dayOfYear = calendar.get(Calendar.DAY_OF_YEAR);
}else{
j = j + 1;
}
}
return calendar.getTime();
} public static Scan setScanCondition(Scan scan) throws IOException{
Date newDay = new Date();
Date otherDays = getPassSevenDays(7); scan.setTimeRange(otherDays.getTime(),newDay.getTime());
scan.addColumn("f1".getBytes(), "LS_certifier_no".getBytes());
scan.addColumn("f1".getBytes(), "LS_location".getBytes());
scan.addColumn("f1".getBytes(), "LS_phone_no".getBytes());
scan.addColumn("f1".getBytes(), "LS_longitude".getBytes());
scan.addColumn("f1".getBytes(), "LS_latitude".getBytes());
scan.addColumn("f1".getBytes(), "date".getBytes());
scan.addColumn("f1".getBytes(), "time".getBytes());
scan.addColumn("f1".getBytes(), "hourOfDay".getBytes()); return scan;
} public static void main(String args[]) throws IOException{
Configuration conf = HBaseConfiguration.create();
HConnection connection = HConnectionManager.createConnection(conf);
String tableName = "EVENT_LOG_LBS_HIS";
HTableInterface table = connection.getTable(tableName); Scan scan = new Scan();
setScanCondition(scan); ResultScanner rs = table.getScanner(scan);
for(Result r : rs){
List<String> lines = new ArrayList<String>();
StringBuilder sb = new StringBuilder();
sb.append(" rowkey=" + Bytes.toString(r.getRow()));
for(Cell cell : r.rawCells()){
String name = Bytes.toString(CellUtil.cloneQualifier(cell));
String value = Bytes.toString(CellUtil.cloneValue(cell));
System.out.println(name + "=" + value);
sb.append("|" + name + "=" + value);
}
lines.add(sb.toString());
System.out.println("--------------------------");
writeFile(lines,"/home/hdfs/datas");
} } public static void writeFile(List<String> lines,String filePath) throws FileNotFoundException{
File file = new File(filePath);
PrintWriter pw = new PrintWriter(new FileOutputStream(file,true));
for(String line : lines){
pw.append(line);
pw.append("\n");
}
pw.flush();
pw.close();
} }

  

Hbase数据导入导出的更多相关文章

  1. HBase数据导入导出工具

    hbase中自带一些数据导入.导出工具 1. ImportTsv直接导入 1.1 hbase中建表 create 'testtable4','cf1','cf2' 1.2 准备数据文件data.txt ...

  2. Sqoop -- 用于Hadoop与关系数据库间数据导入导出工作的工具

    Sqoop是一款开源的工具,主要用于在Hadoop相关存储(HDFS.Hive.HBase)与传统关系数据库(MySql.Oracle等)间进行数据传递工作.Sqoop最早是作为Hadoop的一个第三 ...

  3. 通过 Sqoop1.4.7 将 Mysql5.7、Hive2.3.4、Hbase1.4.9 之间的数据导入导出

    目录 目录 1.什么是 Sqoop? 2.下载应用程序及配置环境变量 2.1.下载 Sqoop 1.4.7 2.2.设置环境变量 2.3.设置安装所需环境 3.安装 Sqoop 1.4.7 3.1.修 ...

  4. HData——ETL 数据导入/导出工具

    HData是一个异构的ETL数据导入/导出工具,致力于使用一个工具解决不同数据源(JDBC.Hive.HDFS.HBase.MongoDB.FTP.Http.CSV.Excel.Kafka等)之间数据 ...

  5. ITTC数据挖掘平台介绍(五) 数据导入导出向导和报告生成

    一. 前言 经过了一个多月的努力,软件系统又添加了不少新功能.这些功能包括非常实用的数据导入导出,对触摸进行优化的画布和画笔工具,以及对一些智能分析的报告生成模块等.进一步加强了平台系统级的功能. 马 ...

  6. 从零自学Hadoop(16):Hive数据导入导出,集群数据迁移上

    阅读目录 序 导入文件到Hive 将其他表的查询结果导入表 动态分区插入 将SQL语句的值插入到表中 模拟数据文件下载 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并 ...

  7. oracle数据导入/导出

    Oracle数据导入导出imp/exp 功能:Oracle数据导入导出imp/exp就相当与oracle数据还原与备份.   大多情况都可以用Oracle数据导入导出完成数据的备份和还原(不会造成数据 ...

  8. Oracle数据导入导出

    Oracle数据导入导出imp/exp 在oracle安装目录下有EXP.EXE与IMP.EXE这2个文件,他们分别被用来执行数据库的导入导出.所以Oracle数据导入导出imp/exp就相当与ora ...

  9. SQL SERVER 和ACCESS的数据导入导出

            //批量导入Access         string filepath = Server.MapPath("student.mdb");         stri ...

随机推荐

  1. Model--汇总

    NSFileManager.NSURL.NSFileHandle.NSData.NSXMLParser.NSUserDefaults.NSKeyedArchiver.NSKeyedUnarchiver ...

  2. jquery实现自动补全邮箱地址

    开始做的邮箱补全代码 //检查email邮箱 function isEmail(str) { if (str.indexOf("@") > 0) { return true; ...

  3. 鼠标焦点变化引起mouseout事件

    做了个小手术,渐渐回归网络啦! 问题: 在自制的提示离鼠标太近时,会引起无法提示的功能. 自制提示离图片太近时,提示图片一直一闪一闪的,截图截不出来,就只放改善后的图片(不闪). 原因: 为什么呢?书 ...

  4. java.lang.ClassCastException: org.slf4j.impl.Log4jLoggerFactory cannot be cast to ch.qos.logback.classic.LoggerContext问题原因及解决方法

    一.错误信息 java.lang.ClassCastException: org.slf4j.impl.Log4jLoggerFactory cannot be cast to ch.qos.logb ...

  5. 更新系统没有mac dashboard 问题解决

    今天更新了mac的系统到EL Capitan,结果出来以后发现平时经常使用的mac dashboard没了,就是这玩意: 找了半天方法,终于知道了这个叫“dashboard” (md之前完全不知道,无 ...

  6. centos 安装beanstalkd

    You need to have the EPEL repo (http://www.servermom.org/2-cents-tip-how-to-enable-epel-repo-on-cent ...

  7. Sep19_html/css_imooc学习笔记_1

    1. <h1></h1>标题,h1-h6从大到小 2. <p></p> 段落 3. <img src=“1.jpg”> 加入图片 4.基本结 ...

  8. java中的日期操作Calendar和Date

    1. Calendar转Date Calendar calendar = Calendar.getInstance(); Date date = calendar.getTime(); 2. Date ...

  9. js 获取当前焦点所在的元素、给元素和input控件添加键盘监听事件、添加页面级的键盘监听事件

    页面级的键盘监听事件 document.onkeydown = function (event) { var e = event || window.event || arguments.callee ...

  10. 遥感影像滤波处理软件 — timesat3.2

    最近因为要做遥感影像的滤波处理,经过女神推荐,决定用Timesat,可是该软件3.1版本只适合xp系统以及2011的matlab,后来在官网上找到了最新的3.2版本.支持64位操作系统以及2014的m ...