hbase、pig、hive配置与应用
------------------HBASE----------
[root@iClient~]#sudo yum install hbase #iClient安装Hbase客户端
[root@cMaster-]#sudo yum install hbase-master #cMaster 安装主服务HMaster
[root@cSlave0~]#sudo yum install hbase-regionserver #eSlave0安装从服务
[root@cSlavel~]#sudo yum install hbase-regionserver #cSlavel安装从服务
[root@cSlave2~]#sudo yum install hbase-regionserver #eSlave2安装从服务 4)配置Hbase编辑/etc/hbase/conf/hbase-site.xml将下面内容添加到configuration便笺切记iClient,cMaster,cSlave0~2这五台机器都要进行配置,且要求配置相同。
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://cMaster:8020/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>cSlave0,cSlavel,cSlave2</value>
</property> 5)HDFS里新建Hbase存储目录
[root@iClient~]#sudo -u hdfs hdfs dfs -mkdir /hbase
[root@iClient~]#sudo -u hdfs hdfs dfs -chown -R hbase /hbase 6)启动Hbase集群
共分三步,即启动ZooKeeper集群(参考ZooKeeper部署),启动主服务HMaster和启动从服务HRegionServer。
[root@cMaster~]#sudo service hbase-master start #cMaster开启主服务命令S
sudo service hbase-regionserver start #cSlave0,cSlavel,cSlave2开启regionserver Hbase后动好后,在iClient上浏览蓄打井“cMaster:60010”,即可以看到Hbase的Web页面。 2.Hbase接口
[root@iClient~]#hbase shell #进入Hbase命令行
hbase(main):001:0>list #查看所有表
hbase(main):002:0>create 'member','id','personalAttr','socialAttr' #创建member表
hbase(main):003:0>list
hbase(main):004:0>scan 'member' #查看member内容
hbase(main):005:0>put 'member','201401','personalAttr:name','aa' #向member表中插入数据
hbase(main):006:0>put 'member','201401','personalAtr:gender','0'
hbase(main):007:0>put 'member','201401','personalAttr:age','21'
hbase(main):008:0>put 'member','201401','socialAttr:edu','e0'
hbase(main):009:0>put 'member','201401,'socialAttr:job', 'p3'
hbase(main):010:0>put 'member','201401','socialAttr:imcome','m'
hbase(main):011:0>scan 'member'
hbase(main):012:0>disable 'member' #废弃member表
hbase(main):013:0>drop 'member' #删除member表
hbase(main):014:0>quit --------------------------- Pig------------------------
[root@iClient ~]# sudo yum install pig #只在iclient上安装 2.Pig访问接口
[root@iClient~]#sudo -u joe pig #进入joe用户的Pig命令行
grunt> help; #查看Pig操作
grunt>A=load 'input'; #载入待处理文件夹input
grunt>B=foreach A generate flatten (TOKENIZE((chararray)$0)) as word; #划分单词
grunt>C=group B by word; #指定按单词聚合,即同一个单词到一起
grunt>D=foreach C generate COUNT(B),group; #同一个单词出现次数相加
grunt>store D into 'out/wc-19'; #将处理好的文件存入HDFS下/user/joe/out/wc-19
grunt> dump D into; #将处理结果D打印到屏幕 ------------------------------------------Hive-----------------------
[root@iClient~]# sudo yum install hive #只在iclient上安装 (2)HDFS里新建Hive存储目录。
[root@iClient ~]#sudo -u hdfs hdfs dfs-mkdir /user/hive #HDFS里新建 Hive存储目录
[root@iClient~]#sudo -u hdfs hdfs dfs-chmod -R 1777 /user/hive #为目录设置适当权限 只需上述两步就可以直接使用Hive了,当然,也可以使用jps命令查看Hive进程。
2.Hive接口
[root@iClient~]#Hive #进入Hive命令行
hive>show functions; #获取Hhive所有函数列表
hive>describe function count; #查看count函数用法 首先为表准备数据,即在iClient目录“/root”下新建文件memberData并写入如下内容,注意记录间为换行符,字段间以Tab键分割。
201401 aa 0 21 e0 p3 m
201402 bb 1 22 el p2 1
201403 cc 1 22 e2 pl m hive>show tables; #查看当前 Hive仓库中所有表(以确定当前无member表)
hive>create table member(id int,name string,gender tinyint,age tinyint,edu string,prof string,income string)row format delimited fields terminated by\t';
#使用合适字段与类型,新建member表
hive>show tables; #次查看,将显示member表
hive>load data local inpath '/root/memberData' into table member; #将本地文件memberData载入HDFS
hive>select * from member; #查看表中所有记录
hive>select * from member where gender=1; #查看表中gender值为1的记录
hive>select * from member where gender=1 AND age=23; #查看表中gender值为1且age为23的记录
hive>select gender,count(*)from member group by gender; #统计男女出现总次数
hive>drop table member; #删除member表
hive>quit; #退出Hive命令行接口
hbase、pig、hive配置与应用的更多相关文章
- hadoop生态圈安装详解(hadoop+zookeeper+hbase+pig+hive)
-------------------------------------------------------------------* 目录 * I hadoop分布式安装 * II zoo ...
- pig hive hbase比较
Pig 一种操作hadoop的轻量级脚本语言,最初又雅虎公司推出,不过现在正在走下坡路了.当初雅虎自己慢慢退出pig的维护之后将它开源贡献到开源社区由所有爱好者来维护.不过现在还是有些公司在用,不过我 ...
- Hive over HBase和Hive over HDFS性能比较分析
http://superlxw1234.iteye.com/blog/2008274 环境配置: hadoop-2.0.0-cdh4.3.0 (4 nodes, 24G mem/node) hbase ...
- Hive综合HBase——经Hive阅读/书写 HBase桌子
社论: 本文将Hive与HBase整合在一起,使Hive能够读取HBase中的数据,让Hadoop生态系统中最为经常使用的两大框架互相结合.相得益彰. watermark/2/text/aHR0cDo ...
- HBase的环境配置及其应用
-------------------------------------------------------------------------------------- [版权申明:本文系作者原创 ...
- Hadoop+HBase+Spark+Hive环境搭建
杨赟快跑 简书作者 2018-09-24 10:24 打开App 摘要:大数据门槛较高,仅仅环境的搭建可能就要耗费我们大量的精力,本文总结了作者是如何搭建大数据环境的(单机版和集群版),希望能帮助学弟 ...
- HBase(六)HBase整合Hive,数据的备份与MR操作HBase
一.数据的备份与恢复 1. 备份 停止 HBase 服务后,使用 distcp 命令运行 MapReduce 任务进行备份,将数据备份到另一个地方,可以是同一个集群,也可以是专用的备份集群. 即,把数 ...
- hbase安装与配置-分布式
HBASE安装与配置 备注: 1:本文在hadoop的完全分布式基础上部署hbase 2:本文使用的是小博主自己搭建的zookpeer服务,未使用hbase本身的zookpeer服务 本文内容在以下前 ...
- HBASE与hive对比使用以及HBASE常用shell操作。与sqoop的集成
2.6.与 Hive 的集成2.6.1.HBase 与 Hive 的对比1) Hive(1) 数据仓库Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方 ...
- 大数据技术之_11_HBase学习_02_HBase API 操作 + HBase 与 Hive 集成 + HBase 优化
第6章 HBase API 操作6.1 环境准备6.2 HBase API6.2.1 判断表是否存在6.2.2 抽取获取 Configuration.Connection.Admin 对象的方法以及关 ...
随机推荐
- from 表单用 GET 方法进行 URL 传值时后台无法获取问题
问题描述 <a href="${pageContext.request.contextPath}/client?method=add">点我</a> < ...
- Linux--进程管理--06
1.操作系统的基础 调用:kernel通过给应用程序提供system call的方式来提供硬件资源: 注意:应用程序也包括库文件 库文件是运行在ring0上的一段程序代码,不对客户直接提供应用 2.程 ...
- JVM知识点总结
JVM总体梳理 一.jvm体系总体概览 JVM体系总体分四大块:类的加载机制.jvm内存结构.GC算法 垃圾回收.GC分析 命令调优 这里画了一个思维导图,将所有的知识点进行了陈列,因为图比较大可以点 ...
- 快速了解会话管理三剑客cookie、session和JWT
更多内容,欢迎关注微信公众号:全菜工程师小辉.公众号回复关键词,领取免费学习资料. 存储位置 三者都是应用在web中对http无状态协议的补充,达到状态保持的目的 cookie:cookie中的信息是 ...
- 转载-Spring Boot应用监控实战
概述 之前讲过Docker容器的可视化监控,即监控容器的运行情况,包括 CPU使用率.内存占用.网络状况以及磁盘空间等等一系列信息.同样利用SpringBoot作为微服务单元的实例化技术选型时,我们不 ...
- office web apps server安装
1.准备服务器 准备一台windows server 2012 R2服务器,修改计算机名称加入域,如果是通过虚拟机复制导致sid冲突,可以先运行 c:\windows\system32\sysprep ...
- 2019 Multi-University Training Contest 3
B.Blow up the city solved by F0_0H 210min 题意 给一个DAG,每次询问给定u,v,求使得u或v不能与中心点联通的关键点个数 做法 按照拓扑序建树 新加节点的父 ...
- lightoj 1283 - Shelving Books(记忆化搜索+区间dp)
题目链接:http://www.lightoj.com/volume_showproblem.php?problem=1283 题解:这题很显然一看就像是区间dp,但是单纯的区间dp好像解决不了问题可 ...
- springmvc 全局异常解决方案
系统中异常包括两类:预期异常和运行时异常RuntimeException,前者通过捕获异常从而获取异常信息,后者主要通过规范代码开发.测试通过手段减少运行时异常的发生. 系统的dao.service. ...
- Storm 系列(一)—— Storm和流处理简介
一.Storm 1.1 简介 Storm 是一个开源的分布式实时计算框架,可以以简单.可靠的方式进行大数据流的处理.通常用于实时分析,在线机器学习.持续计算.分布式 RPC.ETL 等场景.Storm ...