HBase 集群部署

安装 hbase 之前需要先搭建好 hadoop 集群和 zookeeper 集群。hadoop 集群搭建可以参考:https://www.cnblogs.com/javammc/p/16545146.html

  1. 下载安装包 http://archive.apache.org/dist/hbase/1.3.1/
  1. 解压到安装目录
tar -zxvf hbase-1.3.1-bin.tar.gz

我解压到了/opt/lagou/servers/hbase-1.3.1 目录。

  1. 修改配置文件
  • 把 hadoop 中配置的 core-site.xml、hdfs-site.xml 拷贝到 hbase 下的 conf 目录下
ln -s /opt/lagou/servers/hadoop-2.9.2/etc/hadoop/core-site.xml /opt/lagou/servers/hbase-1.3.1/conf/core-site.xml
ln -s /opt/lagou/servers/hadoop-2.9.2/etc/hadoop/hdfs-site.xml /opt/lagou/servers/hbase-1.3.1/conf/hdfs-site.xml
  • 修改 hbase-env.sh
#添加java环境变量
export JAVA_HOME=/opt/module/jdk1.8.0_231
#指定使用外部的zk集群
export HBASE_MANAGES_ZK=FALSE
  • 修改 hbase-site.xml
<configuration>
 <!-- 指定hbase在HDFS上存储的路径 -->
   <property>
       <name>hbase.rootdir</name>
       <value>hdfs://linux2:9000/hbase</value>
   </property>
       <!-- 指定hbase是分布式的 -->
   <property>
       <name>hbase.cluster.distributed</name>
       <value>true</value>
   </property>
       <!-- 指定zk的地址,多个用“,”分割 -->
   <property>
       <name>hbase.zookeeper.quorum</name>
       <value>linux2:2181,linux3:2181,linux4:2181</value>
   </property>
</configuration>
  • 修改 regionservers
linux2
linux3
linux4
  • 在 hbase 的 conf 目录下创建文件 backup-masters

内容如下:

linux2
  • 在每个节点上配置环境变量,vi /etc/profile
export HBASE_HOME=/opt/lagou/servers/hbase-1.3.1
export PATH=$PATH:$HBASE_HOME/bin

执行命令使配置生效

source /etc/profile
  • 将 hbase-1.3.1 目录分发到其他 2 个节点
scp -r hbase-1.3.1 linux3:/opt/lagou/servers/
scp -r hbase-1.3.1 linux4:/opt/lagou/servers/
  1. 启动集群
#启动命令
start-hbase.sh
#停止命令
stop-hbase.sh
  1. 启动完成后,可以访问地址:

    HMaster 的 ip:16010

HBase shell 基本操作

  1. 进入 HBase 客户端命令操作界面
hbase shell

shell 命令行里如果输错了命令,删除需要使用 Ctrl+Backspace

  1. 查看帮助命令
help
  1. 查看当前数据库里有哪些表
list
  1. 创建一个 user 表,包含 user_info、extra_info 两个列族
create 'user','base_info','extra_info'
#或者指定版本
create 'user2',{NAME => 'base_info',VERSIONS => '3'},{NAME => 'extra_info',VERSIONS => '3'}
  1. 添加数据
  • 向 user 表中 row key 为 rk1,列族 base_info 的 name 列上插入值'xiaowang'
put 'user','rk1','base_info:name','xiaowang'
  • 向 user 表中 row key 为 rk1,列族为 base_info 的 age 列插入值 30
 put 'user','rk1','base_info:age',30
  • 向 user 表中 row key 为 rk1,列族为 extra_info 的 address 列插入值'shanghai'
put 'user','rk1','extra_info:address','shanghai'
  1. 查询数据
  • 查询 user 表中 row key 为 rk1 的所有信息
get 'user','rk1'
  • 查询 user 表中 row key 为 rk1 的 base_info 列族的所有信息
get 'user','rk1','base_info'
  • 查询 user 表中指定列族,指定字段的值
get 'user','rk1','base_info:name','base_info:age'
  • 查询 user 表中多个列族的信息
get 'user','rk1','base_info','extra_info'

  • 根据 rowkey 和列值进行查询
get 'user','rk1',{FILTER => "ValueFilter (=,'binary:shanghai')"}
  • 根据 row key 和列名进行模糊查询

查询出列名:address

get 'user','rk1',{FILTER => "QualifierFilter (=,'substring:add')"}
  • 查询表中所有数据
scan 'user'
  • 查询表中列族为 base_info 的信息
scan 'user',{COLUMNS => 'base_info'}

# Scan时可以设置是否开启Raw模式,开启Raw模式会返回包括已添加删除标记但是未实际删除的数据
# VERSIONS指定查询的最大版本数
scan 'user',{COLUMNS => 'base_info',RAW => true, VERSIONS=> 3}
  • 查询 user 表中列族为 base_info、extra_info,且列名中含 add 字符的数据
 scan 'user',{COLUMNS => ['base_info','extra_info'],FILTER => "(QualifierFilter(=,'substring:add'))"}
  • rowkey 的范围值查询
scan 'user',{COLUMNS => 'base_info',STARTROW => 'rk1',ENDROW => 'rk3'}
  • 指定 rowkey 模糊查询

查询 user 表中 row key 以 rk 开头的数据

scan 'user' ,{FILTER =>"PrefixFilter('rk')"}
  1. 更新数据

更新操作同插入操作一模一样,只不过有数据就更新,没数据就添加

  • 更新数据值

将 user 表中 rowkey 为 rk1 的 base_info 列族下的 name 修改为 xiaoliao

put 'user','rk1','base_info:name','xiaoliao'
  1. 删除数据和表
  • 指定 rowkey 以及列名进行删除
delete 'user','rk2','base_info:name'
  • 指定 rowkey 以及列名、时间戳进行删除
delete 'user','rk2','base_info:age',1662245345710
  • 删除列族
alter 'user','delete' => 'extra_info'
  • 清空表数据
truncate 'user'
  • 删除表
#先disable,再drop,否则会报错
disable 'user'
drop 'user'

HBase集群部署与基础命令的更多相关文章

  1. Hbase集群部署及shell操作

    本文详述了Hbase集群的部署. 集群部署 1.将安装包上传到集群并解压 scp hbase-0.99.2-bin.tar.gz mini1:/root/apps/ tar -zxvf hbase-0 ...

  2. HBase 集群部署

     前提条件:hadoop及zookeeper机群已经搭建好. 配置hbase集群步骤: 1.配置hbase集群,要修改3个文件 注意:要把hadoop的hdfs-site.xml和core-site. ...

  3. Hbase集群部署

    1.安装Hadoop集群 这个之前已经写过 2.安装Zookeeper 这个之前也已经写过 3.下载hbase,放到master机器,解压 4.修改hbase-env.sh,添加Java地址 expo ...

  4. Kubernetes集群部署及简单命令行操作

    三个阶段部署docker:https://www.cnblogs.com/rdchenxi/p/10381631.html 环境准备 [root@master ~]# hostnamectl set- ...

  5. HBase集群部署脚本

    #!/bin/bash # Sync HBASE_HOME across the cluster. Must run on master using HBase owner user. HBASE_H ...

  6. HBase集成Zookeeper集群部署

    大数据集群为了保证故障转移,一般通过zookeeper来整体协调管理,当节点数大于等于6个时推荐使用,接下来描述一下Hbase集群部署在zookeeper上的过程: 安装Hbase之前首先系统应该做通 ...

  7. Hadoop及Zookeeper+HBase完全分布式集群部署

    Hadoop及HBase集群部署 一. 集群环境 系统版本 虚拟机:内存 16G CPU 双核心 系统: CentOS-7 64位 系统下载地址: http://124.202.164.6/files ...

  8. Storm集群部署及单词技术

    1. 集群部署的基本流程 集群部署的流程:下载安装包.解压安装包.修改配置文件.分发安装包.启动集群 注意: 所有的集群上都需要配置hosts vi  /etc/hosts 192.168.239.1 ...

  9. 2.Storm集群部署及单词统计案例

    1.集群部署的基本流程 2.集群部署的基础环境准备 3.Storm集群部署 4.Storm集群的进程及日志熟悉 5.Storm集群的常用操作命令 6.Storm源码下载及目录熟悉 7.Storm 单词 ...

随机推荐

  1. 简述电动汽车的发展前景及3D个性化定制需求

    李彦宏前几天又搞事,他宣布百度要开始造电动汽车了!百度市值更是因此一夜暴涨了700亿. 这熟悉的配方,好像在乔布斯.库克那里也见过. 苹果的"iCar"(或者是Apple Car) ...

  2. 一篇文章带你使用Typescript封装一个Vue组件

    一.搭建项目以及初始化配置 vue create ts_vue_btn 这里使用了vue CLI3自定义选择的服务,我选择了ts.stylus等工具.然后创建完项目之后,进入项目.使用快捷命令code ...

  3. 关于Vue移动端框架(Muse-UI)的使用(说明书,针对不愿看文档的童鞋)

    一.安装 1.npm安装 npm i muse-ui -S 或者 CDN安装 <link rel="stylesheet" href="https://unpkg. ...

  4. WPF开发随笔收录-获取软件当前目录的坑

    一.唠唠叨叨 软件开发过程中,经常需要使用到获取exe当前目录这个功能,前同事在实现这个需求时使用的是Directory.GetCurrentDirectory()这个方法,但再最近的测试中,突然发现 ...

  5. Kali MSF漏洞利用

    一.前言 漏洞利用是获得系统控制权限的重要途经.用户从目标系统中找到容易攻击的漏洞,然后利用该漏洞获取权限,从而实现对目标系统的控制. 二.Metasploitable Metasploitable是 ...

  6. centos服务器安全技巧

    系统管理员都应该烂熟于心的: 务必保证系统是 最新的 经常更换密码 - 使用数字.字母和非字母的符号组合 给予用户 最小 的权限,满足他们日常使用所需即可 只安装那些真正需要的软件包 1. 更改默认的 ...

  7. rhel7修改网卡名

    备份eno16777736网卡配置,并复制出一个ifcfg-eth0 [root@rhel7 network-scripts]# cp ifcfg-eno16777736 ifcfg-eno16777 ...

  8. Node.js精进(6)——文件

    文件系统是一种用于向用户提供底层数据访问的机制,同时也是一套实现了数据的存储.分级组织.访问和获取等操作的抽象数据类型. Node.js 中的fs模块就是对文件系统的封装,整合了一套标准 POSIX ...

  9. docker删除镜像报错 Error response from daemon: conflict: unable to delete f73fe6298efc (cannot be forced) - image has dependent child images

    方法1 docker rmi 镜像ID 方法2 docker rmi -f 镜像ID 方法3 docker rmi 镜像仓库名:tag

  10. 深度学习基础-基于Numpy的感知机Perception构建和训练

    1. 感知机模型   感知机Perception是一个线性的分类器,其只适用于线性可分的数据.          f(x) = sign(w.x + b) 其试图在所有线性可分超平面构成的假设空间中找 ...