Hadoop集群常用组件的命令
1. Hadoop
(1).HDFS:
启动HDFS:start-dfs.sh
关闭HDFS:stop-dfs.sh
格式化NameNode:hdfs namenode -format
查看文件系统状态:hdfs dfsadmin -report
创建目录:hdfs dfs -mkdir /path/to/directory
上传本地文件到HDFS:hdfs dfs -put /path/to/local/file /path/to/hdfs/directory
下载HDFS文件到本地:hdfs dfs -get /path/to/hdfs/file /path/to/local/directory
查看HDFS文件内容:hdfs dfs -cat /path/to/hdfs/file
删除HDFS文件:hdfs dfs -rm /path/to/hdfs/file
(2). YARN:
启动YARN:start-yarn.sh
关闭YARN:stop-yarn.sh
查看YARN节点状态:yarn node -list
查看YARN应用程序状态:yarn application -list
提交YARN应用程序:yarn jar /path/to/app.jar com.example.Application arg1 arg2
杀死YARN应用程序:yarn application -kill application_id
(3). MapReduce:
提交MapReduce作业:hadoop jar /path/to/job.jar com.example.Job input_path output_path
查看MapReduce作业状态:mapred job -list
杀死MapReduce作业:mapred job -kill job_id
2. Hive:
启动Hive服务:hive --service hiveserver2
关闭Hive服务:hive --service hiveserver2 --stop
连接到Hive服务:beeline -u jdbc:hive2://localhost:10000
查看Hive表列表:show tables;
创建Hive表:create table table_name (column1 type1, column2 type2, …)
插入数据到Hive表:insert into table table_name values (value1, value2, …)
查询Hive表数据:select * from table_name
删除Hive表:drop table table_name
3. Spark
启动Spark集群:start-all.sh
关闭Spark集群:stop-all.sh
启动Spark Shell:spark-shell
提交Spark应用程序:spark-submit --class com.example.Application /path/to/app.jar arg1 arg2
查看Spark应用程序状态:spark-submit --status application_id
杀死Spark应用程序:spark-submit --kill application_id
4. ZooKeeper:
启动ZooKeeper:zkServer.sh start
关闭ZooKeeper:zkServer.sh stop
连接到ZooKeeper客户端:zkCli.sh -server localhost:2181
创建ZooKeeper节点:create /path/to/node data
获取ZooKeeper节点数据:get /path/to/node
更新ZooKeeper节点数据:set /path/to/node new_data
删除ZooKeeper节点:delete /path/to/node
5.Flink
(1).启动和停止Flink集群
启动Flink集群:./bin/start-cluster.sh
停止Flink集群:./bin/stop-cluster.sh
(2).提交和取消作业
提交作业:./bin/flink run <path/to/job.jar>
取消作业:./bin/flink cancel
(3).查看作业和任务状态
查看作业列表:./bin/flink list
查看作业状态:./bin/flink list -r
查看任务状态:./bin/flink list -t
(4).查看作业日志
查看作业日志:./bin/flink log
(5).告诉Flink任务已完成: ./bin/flink advance
(6).查看Flink配置:./bin/flink run -m : <path/to/job.jar>
(7).查看Flink Web UI
Flink Web UI默认端口为8081,通过浏览器访问即可: http://IP:8081
6.Flume
(1).启动Flume Agent
启动Flume Agent需要使用flume-ng命令,以及指定配置文件的路径。例如:
$ flume-ng agent --conf-file /path/to/flume.conf --name agent-name
#这里的`/path/to/flume.conf`为Flume Agent的配置文件路径,`agent-name`为Flume Agent的名称。
(2).停止Flume Agent
停止Flume Agent需要使用kill命令,以及指定Flume Agent的进程ID。例如:
$ ps -ef |grep Flume
$ kill -9 pid
#这里的`pid`为Flume Agent的进程ID,可以使用ps命令查看: 。
(3).查看Flume Agent的状态
查看Flume Agent的状态需要使用flume-ng命令,以及指定Flume Agent的名称和命令。例如:
$ flume-ng agent --name agent-name --status
#这里的`agent-name`为Flume Agent的名称,`--status`为查看状态的命令。
(4).查看Flume Agent的日志
查看Flume Agent的日志需要使用tail命令,以及指定Flume Agent的日志文件路径。例如:
$ tail -f /path/to/flume.log
#这里的`/path/to/flume.log`为Flume Agent的日志文件路径。
(5).测试Flume Agent的配置是否正确
测试Flume Agent的配置是否正确需要使用flume-ng命令,以及指定配置文件的路径和命令。例如:
$ flume-ng agent --conf-file /path/to/flume.conf --name agent-name --conf-test
#这里的`/path/to/flume.conf`为Flume Agent的配置文件路径,`agent-name`为Flume Agent的名称,`--conf-test`为测试配置的命令。
(6).查看Flume Agent的帮助信息
查看Flume Agent的帮助信息需要使用flume-ng命令,以及指定命令。例如:
$ flume-ng help
#这里的`help`为查看帮助信息的命令。
Hadoop集群常用组件的命令的更多相关文章
- Hadoop集群常用的shell命令
Hadoop集群常用的shell命令 Hadoop集群常用的shell命令 查看Hadoop版本 hadoop -version 启动HDFS start-dfs.sh 启动YARN start-ya ...
- hadoop记录-hadoop集群日常运维命令
hadoop集群日常运维命令 #1.namenode hadoop namenode -format #格式化,慎用 su hdfs hadoop-daemon.sh start namenode h ...
- (转)hadoop 集群常用端口
转载于:https://www.cnblogs.com/liying123/p/7097806.html hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于 ...
- Hadoop入门 集群常用知识与常用脚本总结
目录 集群常用知识与常用脚本总结 集群启动/停止方式 1 各个模块分开启动/停止(常用) 2 各个服务组件逐一启动/停止 编写Hadoop集群常用脚本 1 Hadoop集群启停脚本myhadoop.s ...
- Hadoop详解(02)Hadoop集群运行环境搭建
Hadoop详解(02)Hadoop集群运行环境搭建 虚拟机环境准备 虚拟机节点数:3台 操作系统版本:CentOS-7.6-x86-1810 虚拟机 内存4G,硬盘99G IP地址分配 192.16 ...
- Hadoop 集群常见错误
这里将自己在初识hadoop过程中遇到的一些错误做一个简单总结: (一)启动hadoop集群时易出现的错误: 错误现象:java.net.NoRouteToHostException: No rout ...
- 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南
原文:http://my.oschina.net/wstone/blog/365010#OSC_h3_13 (WJW)高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南 [X] ...
- 解决hadoop 集群启动常见错误办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- hadoop 集群常见错误解决办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- Hadoop集群-HDFS集群中大数据运维常用的命令总结
Hadoop集群-HDFS集群中大数据运维常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客会简单涉及到滚动编辑,融合镜像文件,目录的空间配额等运维操作简介.话 ...
随机推荐
- 简单实现el-dialog的拖拽功能
首先还是要明确几个概念,这里通过修改css并截图给大家介绍下,理解了这几个概念,代码写起来会得心应手许多. clientWidth,clientHeight scrollWidth,scrollHei ...
- C#设计模式08——桥接模式的写法
什么是C#桥接模式?桥接模式是一种结构型设计模式,它可以将抽象部分与实现部分分离,使它们可以独立地变化.这种模式通过将实现细节从抽象类中分离出来,从而让它们可以根据需要独立变化. 为什么要使用C#桥接 ...
- jmeter+badboy软件安装与使用
目录: 一.软件下载安装 1.软件下载 2.安装过程 3.安装完成后界面,默认是已经开启录制模式 二.操作使用 1.访问sougou 2.搜索:mrwhite2020 3.选择导出jmx格式 4.使用 ...
- React报错之Property does not exist on type 'JSX.IntrinsicElements'
正文从这开始~ 总览 当组件名称以小写字母开头时,会导致"Property does not exist on type 'JSX.IntrinsicElements'"错误.为了 ...
- [转帖]使用 TiUP 扩容缩容 TiDB 集群
https://docs.pingcap.com/zh/tidb/stable/scale-tidb-using-tiup TiDB 集群可以在不中断线上服务的情况下进行扩容和缩容. 本文介绍如何使用 ...
- 【转帖】【漏洞提示】MySQL8.0.29因重大bug官网已下架
前阵子,MySQL官网已经将 MySQL 8.0.29版本下架.据悉下架原因是由于MySQL 8.0.29 存在关于InnoDB解释器的重大Bug.而最新版本 8.0.30及以上的版本已修复此漏洞.各 ...
- [转帖]拜托!面试请不要再问我Spring Cloud底层原理
https://www.cnblogs.com/jajian/p/9973555.html 概述# 毫无疑问,Spring Cloud是目前微服务架构领域的翘楚,无数的书籍博客都在讲解这个技术.不过大 ...
- [转帖]【JVM】字节码执行引擎
引入 class文件就是字节码文件,是由虚拟机执行的文件.也就是java语言和C & C++语言的区别就是,整个编译执行过程多了一个虚拟机这一步.这个在 类文件结构 中已经解释.上一节讲了虚拟 ...
- [专贴]在软件测试中UT,IT,ST,UAT分别是什么意思?
在软件测试中UT,IT,ST,UAT分别是什么意思? https://zhidao.baidu.com/question/205450063884417205.html UT(Unit Tes ...
- add_argument()方法基本参数使用
selenium做web自动化时我们想要通过get打开一个页面之前就设置好一些基本参数,需要 通过add_argument()方法来设置,下面以一个简单的不展示窗口为例. option = webdr ...