Hadoop集群常用组件的命令
1. Hadoop
(1).HDFS:
启动HDFS:start-dfs.sh
关闭HDFS:stop-dfs.sh
格式化NameNode:hdfs namenode -format
查看文件系统状态:hdfs dfsadmin -report
创建目录:hdfs dfs -mkdir /path/to/directory
上传本地文件到HDFS:hdfs dfs -put /path/to/local/file /path/to/hdfs/directory
下载HDFS文件到本地:hdfs dfs -get /path/to/hdfs/file /path/to/local/directory
查看HDFS文件内容:hdfs dfs -cat /path/to/hdfs/file
删除HDFS文件:hdfs dfs -rm /path/to/hdfs/file
(2). YARN:
启动YARN:start-yarn.sh
关闭YARN:stop-yarn.sh
查看YARN节点状态:yarn node -list
查看YARN应用程序状态:yarn application -list
提交YARN应用程序:yarn jar /path/to/app.jar com.example.Application arg1 arg2
杀死YARN应用程序:yarn application -kill application_id
(3). MapReduce:
提交MapReduce作业:hadoop jar /path/to/job.jar com.example.Job input_path output_path
查看MapReduce作业状态:mapred job -list
杀死MapReduce作业:mapred job -kill job_id
2. Hive:
启动Hive服务:hive --service hiveserver2
关闭Hive服务:hive --service hiveserver2 --stop
连接到Hive服务:beeline -u jdbc:hive2://localhost:10000
查看Hive表列表:show tables;
创建Hive表:create table table_name (column1 type1, column2 type2, …)
插入数据到Hive表:insert into table table_name values (value1, value2, …)
查询Hive表数据:select * from table_name
删除Hive表:drop table table_name
3. Spark
启动Spark集群:start-all.sh
关闭Spark集群:stop-all.sh
启动Spark Shell:spark-shell
提交Spark应用程序:spark-submit --class com.example.Application /path/to/app.jar arg1 arg2
查看Spark应用程序状态:spark-submit --status application_id
杀死Spark应用程序:spark-submit --kill application_id
4. ZooKeeper:
启动ZooKeeper:zkServer.sh start
关闭ZooKeeper:zkServer.sh stop
连接到ZooKeeper客户端:zkCli.sh -server localhost:2181
创建ZooKeeper节点:create /path/to/node data
获取ZooKeeper节点数据:get /path/to/node
更新ZooKeeper节点数据:set /path/to/node new_data
删除ZooKeeper节点:delete /path/to/node
5.Flink
(1).启动和停止Flink集群
启动Flink集群:./bin/start-cluster.sh
停止Flink集群:./bin/stop-cluster.sh
(2).提交和取消作业
提交作业:./bin/flink run <path/to/job.jar>
取消作业:./bin/flink cancel
(3).查看作业和任务状态
查看作业列表:./bin/flink list
查看作业状态:./bin/flink list -r
查看任务状态:./bin/flink list -t
(4).查看作业日志
查看作业日志:./bin/flink log
(5).告诉Flink任务已完成: ./bin/flink advance
(6).查看Flink配置:./bin/flink run -m : <path/to/job.jar>
(7).查看Flink Web UI
Flink Web UI默认端口为8081,通过浏览器访问即可: http://IP:8081
6.Flume
(1).启动Flume Agent
启动Flume Agent需要使用flume-ng命令,以及指定配置文件的路径。例如:
$ flume-ng agent --conf-file /path/to/flume.conf --name agent-name
#这里的`/path/to/flume.conf`为Flume Agent的配置文件路径,`agent-name`为Flume Agent的名称。
(2).停止Flume Agent
停止Flume Agent需要使用kill命令,以及指定Flume Agent的进程ID。例如:
$ ps -ef |grep Flume
$ kill -9 pid
#这里的`pid`为Flume Agent的进程ID,可以使用ps命令查看: 。
(3).查看Flume Agent的状态
查看Flume Agent的状态需要使用flume-ng命令,以及指定Flume Agent的名称和命令。例如:
$ flume-ng agent --name agent-name --status
#这里的`agent-name`为Flume Agent的名称,`--status`为查看状态的命令。
(4).查看Flume Agent的日志
查看Flume Agent的日志需要使用tail命令,以及指定Flume Agent的日志文件路径。例如:
$ tail -f /path/to/flume.log
#这里的`/path/to/flume.log`为Flume Agent的日志文件路径。
(5).测试Flume Agent的配置是否正确
测试Flume Agent的配置是否正确需要使用flume-ng命令,以及指定配置文件的路径和命令。例如:
$ flume-ng agent --conf-file /path/to/flume.conf --name agent-name --conf-test
#这里的`/path/to/flume.conf`为Flume Agent的配置文件路径,`agent-name`为Flume Agent的名称,`--conf-test`为测试配置的命令。
(6).查看Flume Agent的帮助信息
查看Flume Agent的帮助信息需要使用flume-ng命令,以及指定命令。例如:
$ flume-ng help
#这里的`help`为查看帮助信息的命令。
Hadoop集群常用组件的命令的更多相关文章
- Hadoop集群常用的shell命令
Hadoop集群常用的shell命令 Hadoop集群常用的shell命令 查看Hadoop版本 hadoop -version 启动HDFS start-dfs.sh 启动YARN start-ya ...
- hadoop记录-hadoop集群日常运维命令
hadoop集群日常运维命令 #1.namenode hadoop namenode -format #格式化,慎用 su hdfs hadoop-daemon.sh start namenode h ...
- (转)hadoop 集群常用端口
转载于:https://www.cnblogs.com/liying123/p/7097806.html hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于 ...
- Hadoop入门 集群常用知识与常用脚本总结
目录 集群常用知识与常用脚本总结 集群启动/停止方式 1 各个模块分开启动/停止(常用) 2 各个服务组件逐一启动/停止 编写Hadoop集群常用脚本 1 Hadoop集群启停脚本myhadoop.s ...
- Hadoop详解(02)Hadoop集群运行环境搭建
Hadoop详解(02)Hadoop集群运行环境搭建 虚拟机环境准备 虚拟机节点数:3台 操作系统版本:CentOS-7.6-x86-1810 虚拟机 内存4G,硬盘99G IP地址分配 192.16 ...
- Hadoop 集群常见错误
这里将自己在初识hadoop过程中遇到的一些错误做一个简单总结: (一)启动hadoop集群时易出现的错误: 错误现象:java.net.NoRouteToHostException: No rout ...
- 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南
原文:http://my.oschina.net/wstone/blog/365010#OSC_h3_13 (WJW)高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南 [X] ...
- 解决hadoop 集群启动常见错误办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- hadoop 集群常见错误解决办法
hadoop 集群常见错误解决办法 hadoop 集群常见错误解决办法: (一)启动Hadoop集群时易出现的错误: 1. 错误现象:Java.NET.NoRouteToHostException ...
- Hadoop集群-HDFS集群中大数据运维常用的命令总结
Hadoop集群-HDFS集群中大数据运维常用的命令总结 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 本篇博客会简单涉及到滚动编辑,融合镜像文件,目录的空间配额等运维操作简介.话 ...
随机推荐
- mixin混合
多个组件有相同的逻辑,抽离出来 mixin并不是完美的解决方案,会有一些问题 vue3提出composition api旨在解决这些问题
- 微信小程序——如何获取url中的数据
如何获取url中的数据 这里举个例子! 当我们需要编辑一个可以点击的图片超链接 这时候结构是这个样子的 首先最外层有一个视图层view 在view中添加超链接标签<navigator> & ...
- .NET周刊【1月第2期 2024-01-21】
国内文章 NCC Mocha v0.1.0 发布,.NET 开发的基于 OpenTelemetry 的 APM 系统 https://mp.weixin.qq.com/s/gUx-dqlYqcwgQN ...
- [转帖]MySQL多版本并发控制机制(MVCC)-源码浅析
https://zhuanlan.zhihu.com/p/144682180 MySQL多版本并发控制机制(MVCC)-源码浅析 前言 作为一个数据库爱好者,自己动手写过简单的SQL解析器以及存储引擎 ...
- [转帖]JDK8使用G1 垃圾回收器能解决大问题吗?
https://zhuanlan.zhihu.com/p/458098236 G1 垃圾回收器真的不行吗? 本文想突出两个问题: 解决问题的思路:从最原始的角度去思考,问题的本身是因为缓存数据导致的G ...
- [转帖]故障分析 | 让top命令直接显示Java线程名?-- 解析OpenJDK的一个bug修复
https://zhuanlan.zhihu.com/p/413136873 作者:阎虎青DBLE 开源项目负责人,负责分布式数据库中间件研发工作:持续专注于数据库方面的技术,始终在一线从事开发:对数 ...
- [转帖]一文带你搞懂xxl-job(分布式任务调度平台)
https://zhuanlan.zhihu.com/p/625060354 前言 本篇文章主要记录项目中遇到的 xxl-job 的实战,希望能通过这篇文章告诉读者们什么是 xxl-job 以及怎么使 ...
- [转帖]坑:jmeter代理服务器录制脚本出现target controller is configured to "use recording Controller" but no such controller exists...
配置好代理服务器后,运行代理服务器 run 报错: target controller is configured to "use recording Controller" bu ...
- 一个简单的科普-延迟与RT时间
一个简单的科普-延迟与RT时间 背景 发现稍微一复杂就没人看. 这次像是写一个简单的科普文章. 主要说一下网络延迟还有网络的响应时间. 这里想通过一个题目进行引申. 如果Skylink全球商用: 中国 ...
- 【转帖】Linux 调优篇 :虚拟化调优(irqbalance 网卡中断绑定)* 贰
一.网络流量上不去二.中断绑定2.1 关闭中断平衡守护进程2.2 脱离中断平衡守护进程2.3 手动设置中断的CPU亲和性三. 总结 一.网络流量上不去 在Linux的网络调优方面,如果你发现网络流量上 ...