一、Hbase

先来个中文的概括

1. HBase shell窗口进入

执行hbase shell

2. HBase表的创建

# 语法:create <table>, {NAME => <family>, VERSIONS => <VERSIONS>}
# 例如:创建表user,有两个family name:id,f2,且版本数前者为3,后者为1

 hbase(main)> create 'user',{NAME => 'id', VERSIONS => 3},{NAME => 'f2', VERSIONS => 1}

3. HBase表的删除

先disable表
再drop表

 hbase(main)> disable 't1'
hbase(main)> drop 't1'

4. HBase表的清空

 hbase(main)> truncate 't1'

5. 统计HBase表行数

 count '表名'

6. 显示所有HBase表

 list

7. 查看HBase表结构

 describe 't1'

结果为

Table t1 is ENABLED
t1
COLUMN FAMILIES DESCRIPTION
{NAME => 'T', VERSIONS => '1', EVICT_BLOCKS_ON_CLOSE => 'false', NEW_VERSION_BEHAVIOR => 'false', KEEP_DELETED_CELLS => 'FALSE', CACHE_DATA_ON_WRITE => 'false', DATA_BLOCK_ENCODING => 'NONE', TTL => '2073
600 SECONDS (24 DAYS)', MIN_VERSIONS => '0', REPLICATION_SCOPE => '0', BLOOMFILTER => 'ROW', CACHE_INDEX_ON_WRITE => 'false', IN_MEMORY => 'true', CACHE_BLOOMS_ON_WRITE => 'false', PREFETCH_BLOCKS_ON_OPEN
=> 'false', COMPRESSION => 'SNAPPY', BLOCKCACHE => 'true', BLOCKSIZE => '65536'}

8. 复制HBase表结构

7可以查看到hbase表的结构,把红色部分复制下来加上create '表名'即可

 create 't2',{NAME => 'T', VERSIONS => '1', EVICT_BLOCKS_ON_CLOSE => 'false', NEW_VERSION_BEHAVIOR => 'false', KEEP_DELETED_CELLS => 'FALSE', CACHE_DATA_ON_WRITE => 'false', DATA_BLOCK_ENCODING => 'NONE', TTL => '2073600 SECONDS (24 DAYS)', MIN_VERSIONS => '0', REPLICATION_SCOPE => '0', BLOOMFILTER => 'ROW', CACHE_INDEX_ON_WRITE => 'false', IN_MEMORY => 'true', CACHE_BLOOMS_ON_WRITE => 'false', PREFETCH_BLOCKS_ON_OPEN => 'false', COMPRESSION => 'SNAPPY', BLOCKCACHE => 'true', BLOCKSIZE => '65536'}

二、MongoDB

1. 选择db库

 use DB_NAME

2. 显示集合collections

 show collections

3. 删除集合collections

 db.COLLECTION_NAME.drop()

4. 查看数据库

 > db.stats();
{
"db" : "test", //当前数据库
"collections" : 3, //当前数据库多少表
"objects" : 4, //当前数据库所有表多少条数据
"avgObjSize" : 51, //每条数据的平均大小
"dataSize" : 204, //所有数据的总大小
"storageSize" : 16384, //所有数据占的磁盘大小
"numExtents" : 3,
"indexes" : 1, //索引数
"indexSize" : 8176, //索引大小
"fileSize" : 201326592, //预分配给数据库的文件大小
"nsSizeMB" : 16,
"dataFileVersion" : {
"major" : 4,
"minor" : 5
},
"ok" : 1
}

4. 查看数据表

 > db.表名.stats();
{
"ns" : "库名.表名",
"count" : 1,
"size" : 56,
"avgObjSize" : 56,
"storageSize" : 8192,
"numExtents" : 1,
"nindexes" : 1,
"lastExtentSize" : 8192,
"paddingFactor" : 1,
"systemFlags" : 1,
"userFlags" : 0,
"totalIndexSize" : 8176,
"indexSizes" : {
"_id_" : 8176
},
"ok" : 1
}

5. 用户验证登录

 mongo --host 192.168.0.16 --port 27017 -u "adminUser" -p "adminPass" --authenticationDatabase "admin"

三、Redis

可以参考:https://www.cnblogs.com/hylazphp/p/10153481.html

1. 进入shell

 redis-cli -h localhost -p  -n <db>

2. 读取set

 smembers 'key'

3. 读取set到大小

 scard 'key'

4. 查看所有key

 keys *

5. hashMap查看所有值

 hgetall 

6. 查看key的ttl

 ttl 'key' #查看的结果是当前还剩余多少毫秒

7. 设置当前key的ttl

 expire 'key' 10000

8. 清空当前数据库的所有key

 flushdb

9. 查看当前的redis连接数

 info clients

10. 查看redis允许的最大连接数

 config get maxclients

11. 查看命令使用情况

 info commandstats

cmdstat_XXX: calls=XXX,usec=XXX,usec_per_call=XXX
其中,第一个XXX是命令的名称,第二个XXX是命令调用次数,第三个XXX是命令消耗的CPU时间总量(以微秒为单位),第三个XXX是每次调用命令消耗的CPU时间的平均值(以微秒为单位)。

info的命令有很多,可以参考:如何监控Redis的工作状态——INFO命令详解

12. 实时打印出 Redis 服务器接收到的命令,调试用

 monitor

13. AOF 持久化

为了打开 AOF 持久化的功能,我们只需要将 redis.conf 配置文件中的appendonly配置选项设置为yes即可,如果不进行持久化redis重启数据就没了。涉及 AOF 持久化的几个常用配置如下所示:

 appendonly yes
appendfilename "appendonly.aof"
appendfsync everysec

appendonly:是否打开 AOF 持久化功能
appendfilename:AOF 文件名称
appendfsync:同步到硬盘的频率

14. redis库中的数据导出导入

法一:可以使用redis-load、redis-dump方法,该方法没用过,自行百度嘿嘿

法二:使用redis-dump-load 1.1包,官网:https://pypi.org/project/redis-dump-load/1.1/

也可以参见博客:https://www.234du.com/1174.html

导出:

 redisdl.py -H ip -p 6379 -d 0 -o /tmp/db0.json

导入:

 redisdl.py -l -H ip -p 6379 -d 12 /tmp/db0.json

四、Docker

1. 查看当前正在运行的容器

 docker ps 或者 sudo docker ps

2. 进入到容器中运行命令

比如,1中拿到了容器的ID xxxx,则可以执行

docker exec -it xxxx /bin/bash 或者 sudo docker exec -it xxxx /bin/bash

3. 本地镜像上传镜像仓库

 docker push [OPTIONS] NAME[:TAG]

4. COPY和ADD命令

Dockerfile中的COPY指令和ADD指令都可以将主机上的资源复制或加入到容器镜像中,COPY指令和ADD指令的唯一区别在于是否支持从远程URL获取资源。它们的注意事项如下:

  • 源路径可以有多个
  • 源路径是相对于执行build的相对路径
  • 源路径如果是本地路径,必须是build上下文中的路径
  • 源路径如果是一个目录,则该目录下的所有内容都将被加入到容器,但是该目录本身不会
  • 目标路径必须是绝对路径,或相对于WORKDIR的相对路径
  • 目标路径如果不存在,则会创建相应的完整路径
  • 目标路径如果不是一个文件,则必须使用/结束
  • 路径中可以使用通配符

示例:

 ADD http://example.com/big.tar.xz /usr/src/things/

5. Dockfile中其他一些命令

注释: 以#开头默认是注释;

FROM:

Dockerfile第一条指令应该是FROM。FROM指定一个已经存在的镜像,后续指令都是将基于该镜像进行,这个镜像被称为基础镜像(base iamge)。

MAINTAINER:

告诉Docker该镜像的作者及作者的邮箱地址

RUN:

RUN指令会在shell里使用命令包装器/bin/sh -c 来执行。每条RUN指令都会创建一个新的镜像层,如果该指令执行成功,就会将此镜像层提交,然后继续执行Dockerfile中的下一个指令。

ENV:
ENV key value
用来设置环境变量,后续的RUN可以使用它所创建的环境变量
WORKDIR:
用来指定当前工作目录

6. Docker build命令

 docker build -t runoob/ubuntu:v1 . 

-t:镜像的名字及标签,通常 name:tag 或者 name 格式,  -f指定Dockfile文件路径,.表示当前目录,docker build 会将这个路径下所有的文件都打包上传给 Docker 引擎,其他的参数参见:Docker命令大全

五、Zookeeper

1. 连接远程zookeeper服务

./zkCli.sh -server ip:port

工具篇-大数据组件的一些快捷Shell操作的更多相关文章

  1. 基于ambari搭建hadoop生态圈大数据组件

    Ambari介绍1Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应.管理和监控.Ambari已支持大多数Hadoop组件,包括HDFS.MapReduce.H ...

  2. 大数据组件原理总结-Hadoop、Hbase、Kafka、Zookeeper、Spark

    Hadoop原理 分为HDFS与Yarn两个部分.HDFS有Namenode和Datanode两个部分.每个节点占用一个电脑.Datanode定时向Namenode发送心跳包,心跳包中包含Datano ...

  3. 论各类BI工具的“大数据”特性!

    市面上的BI工具形形色色,功能性能包装得十分亮丽,但实际应用中我们往往更关注的是朴实的技术特性和解决方案.对于大数据,未来的应用趋势不可抵挡,很多企业也正存在大数据分析处理展现的需求,以下我们列举市面 ...

  4. 零基础入门到精通:Python大数据与机器学习之Pandas-数据操作

    在这里还是要推荐下我自己建的Python开发学习群:483546416,群里都是学Python开发的,如果你正在学习Python ,小编欢迎你加入,大家都是软件开发党,不定期分享干货(只有Python ...

  5. 前端见微知著工具篇:Bower组件管控

    在上一篇文章中,我们提到了利用Grunt可以完成的内容,其中最主要的功能就是利用各种Node的组件来搭配出一个自动化高亮,自动化运行等的Web前端开发环境.但是Bower也是一个专门来管理各种依赖组件 ...

  6. mysql 开发进阶篇系列 35 工具篇 mysqldump(数据导出工具)

    一.概述 mysqldump客户端工具是用来备份数据库或在不同数据库之间进行数据迁移.备份内容包含创建表或装载表的sql语句.mysqldump目前是mysql中最常用的备份工具. 三种方式来调用my ...

  7. docker容器与大数据组件的冲突点

    1.容器里面安装spark,外面的程序(安装spark主机的容器)会连接不上集群.理由:这个组件用的akka,连接上集群,会提示: akka.ErrorMonitor: dropping messag ...

  8. hadoop大数据组件启动

    1.1.启动集群 sbin/start-dfs.sh注:这个启动脚本是通过ssh对多个节点的namenode.datanode.journalnode以及zkfc进程进行批量启动的. 1.2.启动Na ...

  9. 小记---------CDH版大数据组件--clouderManager UI界面

    启动 /opt/cm-5.14.0/etc/init.d/clouder-scm-server start /opt/cm-5.14.0/etc/init.d/clouder-scm-agent st ...

随机推荐

  1. 我们为什么要在 PHPStorm 中标记目录

    问题来源 (1)要开发的项目位于PHPStorm打开的项目的二级目录下,使用PHPStorm来开发Laravel项目 提供的教程在代码自动定位和智能提醒方面,存在无效的情况: (2)使用gulp作为项 ...

  2. 文件读取草稿(excel,csv)

    using NPOI.XSSF.UserModel; using System; using System.Collections.Generic; using System.Data; using ...

  3. ANGULAR 2 BITS: UNIFIED DEPENDENCY INJECTION

    Angular 1.x has two APIs for injecting dependencies into a directive. These APIs are not interchange ...

  4. 6 Django 的视图层

    视图函数 一个视图函数,简称视图,是一个简单的 Python 函数,它接受 Web 请求并且返回 Web 响应.响应可以是一张网页的 HTML 内容,一个重定向,一个 404 错误,一个 XML 文档 ...

  5. eclipse中maven install提示编码GBK的不可映射字符

    今天在eclipse中使用Maven编译项目源代码时,结果如下了如下的错误 在Java源码中没有提示任何报错,即便是改掉项目编码也是不行,如下图所示:

  6. html 中的<script>标签

    https://www.w3.org/TR/html51/semantics-scripting.html#the-script-element 一. <script type='text/ja ...

  7. WINSOCK网络函数

    1. 头文件及库文件 头文件:WINSOCK2.H 库:WS2_32.LIB库 如果是在WINCE中,不支持SOCK2,所以: 头文件:WINSOCK.H 库:WSOCK32.LIB 如果从MSWSO ...

  8. Hadoopd 单元测试-MPUnit

    Apache 版: 官网:http://mrunit.apache.org 教程:https://cwiki.apache.org/confluence/display/MRUNIT/MRUnit+T ...

  9. c# HighCharts使用

    最近接到个图形报表的需求,网络上找了几个插件,最后决定用highcharts 需要的文件 1.bll文件,添加到项目引用   http://files.cnblogs.com/files/loveju ...

  10. Pi 实现VLC网络视频监控

    安装摄像头 将Pi的原装摄像头安装在pi上面 ssh连接pi 通过xshell或者putty等工具连接ssh 安装VLC $ sudo apt-get update $ sudo apt-get in ...