**** bin 是二进制文件的意思,sbin....据说是superbin(管理员的bin)

HDFS命令
某个文件的blocks信息
hadoop fsck /user/xx -files -blocks -locations

改变一个文件或者目录的副本因子
hadoop fs -setrep -R 3 /user/xx

查看app的log
yarn logs -applicationId application_1452250357031_0175

set datanode 日志级别
hadoop daemonlog -setlevel namenodeip:50070 datanode DEBUG

或者 在hadoop-env.sh中添加
export HADOOP_ROOT_LOGGER=DEBUG,RFA

查看sequence文件
hadoop dfs -text sequenceFile

查看压缩文件
lzo文件(先按照lzop命令) hadoop fs -cat /user/2017-03-06/part-r-00255.lzo | lzop -dc | head -1
gz压缩 hadoop fs -cat /tmp/temp.txt.gz | gzip -d​ 或者 hadoop fs -cat /tmp/temp.txt.gz | zcat​

lzo建立索引(方便切分多个split,会在当前hdfs目录下创建一个.index文件)
hadoop jar lib/hadoop-lzo-0.4.15.jar com.hadoop.compression.lzo.DistributedLzoIndexer /user/news_74_8000_201705091820.lzo

kafka&zk命令
启动kafka
nohup bin/kafka-server-start.sh config/server.properties &
bin/kafka-server-start.sh -daemon config/server.properties

停止Kafka
bin/bin/kafka-server-stop.sh

列出kafka的topic
bin/kafka-topics.sh --list --zookeeper 127.0.0.1:2181,10.xx:2181,10.xx:2181

创建topic
bin/kafka-topics.sh --create --zookeeper 127.0.0.1:2181,10.xx:2181,10.xx:2181 --topic test --partitions 3 --replication-factor 2

增加topic的partitions
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --alter --topic three_replica --partitions 5

topic的描述信息
bin/kafka-topics.sh --describe --zookeeper 10.xx:2181,10.xx:2181,10.xx:2181 --topic test

命令行生产消息
bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092,10.xx:9092,10.xx:9092 --topic test

命令行消费消息
bin/kafka-console-consumer.sh --zookeeper 127.0.0.1:2181,10.xx:2181,10.1xx:2181 --topic test --from-beginning

打开zk客户端
bin/zkCli.sh -server xxx:2181,xx:2181

删除zk上节点

delete /path //删除指定节点,只能删除非空节点
rmr /path //删除path节点及子节点

查看zk目录
ls / //使用ls查看当前zookeeper中所包含的内容
ls2 / //查看当前节点数据并能看到更新次数等数据
查看zk中哪个是leader及follower
for i in {55..57};do echo stat | nc 10.102.143.$i 2181;done

zk

echo dump| nc 127.0.0.1 2181 //列出未经处理的会话和临时节点
echo conf | nc 127.0.0.1 2181 //输出相关服务配置的详细信息

redis命令
redis-cli 进入
redis-cli # localhost
redis-cli -h hostname -p port -a password
进入之后使用ping命令测试下链接是否成功,返回PONG表示链接成功。

查看redis中的key
$ keys * # redis 中所有的key
$ keys h* # redis 中h开头的所有key
$ randomkey # 随机显示一个key
在client中使用上述命令时,有可能会报Error: Server closed the connection,导致命令无法使用,但其它命令正常,如lrange。

查看key的数据类型
$ type xx:xx # xx:xx 为key
使用scan查看匹配key

SCAN cursor [MATCH pattern] [COUNT count]

scan 107102208 MATCH net:20170830:V* COUNT 1000

注意:返回的游标不一定是递增的,可能后一次返回的游标比前一次的小。

查看list中key对应的值
$ lrange top:article 1 2 # 显示key为top:article的list中start索引为1到end索引为2的数据
1) "{"id":"CS25FCED05148UNS","value":[3873,11,64096,0,0,0]}"
2) "{"id":"CS2EK6TU0001875P","value":[3850,10,94762,0,0,0]}"

查看hash所有的key/value
$ hgetall xx:xx # xx:xx 为key
1) key1 # hash中的key
2) value1 # hash中的value

redis cluster命令
连接客户端命令
redis-cli -h ip -p port -c

转自 http://bigdatadecode.club/常用Hadoop命令.html

常用Hadoop命令(bin)的更多相关文章

  1. Hadoop集群-HDFS集群中大数据运维常用的命令总结

    Hadoop集群-HDFS集群中大数据运维常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客会简单涉及到滚动编辑,融合镜像文件,目录的空间配额等运维操作简介.话 ...

  2. Hadoop基础-HDFS集群中大数据开发常用的命令总结

    Hadoop基础-HDFS集群中大数据开发常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本盘博客仅仅列出了我们在实际生成环境中常用的hdfs命令,如果想要了解更多, ...

  3. 自己常用的Linux命令和Hadoop命令

    记录自己常用的Linux命令: ss的启动命令:ssserver -c /etc/shadowsocks.json jupyter notebook的启动命令:jupyter notebook --a ...

  4. HADOOP命令介绍

    一.用户命令1.archive命令 (1).什么是Hadoop archives?Hadoop archives是特殊的档案格式.一个Hadoop archive对应一个文件系统目录. Hadoop ...

  5. 【大数据系列】hadoop命令指导官方文档翻译

    Hadoop Commands Guide Overview Shell Options Generic Options User Commands archive checknative class ...

  6. Hadoop命令手册

    原文地址:http://hadoop.apache.org/docs/r1.0.4/cn/commands_manual.html 概述 常规选项 用户命令 archive distcp fs fsc ...

  7. hadoop命令详解

    一.用户命令1.archive命令 (1).什么是Hadoop archives?Hadoop archives是特殊的档案格式.一个Hadoop archive对应一个文件系统目录. Hadoop ...

  8. ZooKeeper的使用:安装、常用的命令

    公司项目需要使用dubbo,因此,自己做个小Demo就很有必要了,也有助于自己理解和使用,前期准备工作当然就必不可少了,因为dubbo是发布到zookeeper的服务,故先把zookeeper的环境先 ...

  9. 原 HBase 常用Shell命令

    HBase 常用Shell命令 1.进入hbase shell console $HBASE_HOME/bin/hbase shell 如果有kerberos认证,需要事先使用相应的keytab进行一 ...

随机推荐

  1. OPPO realme 2在哪里打开Usb调试模式的简单步骤

    每当我们使用PC通过数据线链接到安卓手机的时候,如果手机没有开启USB调试模式,PC则没能成功识别我们的手机,这时我们需要找解决方法将手机的USB调试模式开启,下文我们记录一下OPPO realme ...

  2. JAVA 四舍五入Math.round方法

    今天由于测试场景,利息的计算中涉及小数点的保留.保留的规则是:两位小数+四舍五入方式 使用的语言是JAVA, 看了许多网上的方法.因为最后保留的小数还会进行计算.所以我考虑最好不要保留的结果是Stri ...

  3. Docker 创建 Bamboo6.7.1 以及与 Crowd3.3.2 实现 SSO 单点登录

    目录 目录 1.介绍 1.1.什么是 Bamboo? 2.Bamboo 的官网在哪里? 3.如何下载安装? 4.对 Bamboo 进行配置 4.1.获取授权许可 4.2.一般配置 4.3.数据库配置 ...

  4. SQLServer之创建不可重复读

    创建不可重复读注意事项 语法:set transaction isolation level repeatable read. 指定语句不能读取已由其他事务修改但尚未提交的行,并且指定,其他任何事务都 ...

  5. ASP.NET学习笔记 —— 一般处理程序之图片上传

    简单图片上传功能目标:实现从本地磁盘读取图片文件,展示到浏览器页面.步骤:(1). 首先创建一个用于上传图片的HTML模板,命名为ImageUpload.html: <!DOCTYPE html ...

  6. VMware小记

    博主最近不知道为啥,有点手贱,折腾虚拟机. 然后某天,突然发现虚拟机连不上网,ping物理机,返回结果是不可达. 后来尝试各种手段,注意到VMware Network Adapter VMnet8和  ...

  7. firewalld防火墙设置

    CentOS7/RHEL7系统默认的iptables管理工具是firewalld,不再是以往的iptables-services,命令用起来也是不一样了,当然你也可以选择卸载firewalld,安装i ...

  8. ASP.NET Core 2.1与2.2 SignalR CORS 跨域问题

    将 SignalR 集成到 ASP.NET Core api 程序的时候,按照官方 DEMO 配置完成,本地访问没有问题,但是发布之后一直报跨域问题,本地是这样设置的: Asp.net core 2. ...

  9. 对多条件进行组合,生成笛卡尔积的用例集合的python代码实现

    做专项测试需要对一些因素进行组合的测试,这里组合起来后数据量可能很大,我们可以用python来代劳 代码有优化空间,目前先用着. ************************代码开始******* ...

  10. dede织梦 arclist标签完美支持currentstyle属性

    由于客户需求,所以进行对文章的arclist标签进行设置当前样式(currentstyle),修改前记得备份. dede版本v5.7sp 找到PHP修改: include/taglib/arclist ...