hadoop集群日常运维命令
#1.namenode
hadoop namenode -format #格式化,慎用
su hdfs
hadoop-daemon.sh start namenode
hadoop-daemon.sh stop namenode
#2.journalnode
hadoop-daemon.sh start journalnode
hadoop-daemon.sh stop journalnode
#3.zkfc
hdfs zkfc -formatZK #格式化,慎用
hadoop-daemon.sh start zkfc
hadoop-daemon.sh stop zkfc
#4.datanode
hadoop-daemon.sh start datanode
hadoop-daemon.sh stop datanode
#5.nodemanager
su yarn
yarn-daemon.sh start nodemanager
yarn-daemon.sh stop nodemanager
#6.resourcemanager
yarn-daemon.sh start resourcemanager
yarn-daemon.sh stop resourcemanager
#7.hive
hive --service hiveserver2 #10000
hive --service metastore #9083
#8.zookeeper
bin/zkServer.sh start  #2181
bin/zkServer.sh stop
bin/zkServer.sh status
bin/zkCli.sh #连接后台zk服务查看znode,可加-server参数
#HA Federation
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.nameservices</name>
<value>aaa,bbb</value>
</property> <!-- aaa -->
<property>
<name>dfs.ha.namenodes.aaa</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.aaa.nn1</name>
<value>1.1.1.1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.aaa.nn2</name>
<value>1.1.1.2:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.aaa.nn1</name>
<value>1.1.1.1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.aaa.nn2</name>
<value>1.1.1.2:50070</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.aaa</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir.aaa</name>
<value>qjournal://1.1.1.1:8485;1.1.1.2:8485;1.1.1.3:8485/aaa</value>
</property> <!-- bbb -->
<property>
<name>dfs.ha.namenodes.bbb</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.bbb.nn1</name>
<value>1.1.1.4:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.bbb.nn2</name>
<value>1.1.1.5:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.bbb.nn1</name>
<value>1.1.1.4:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.bbb.nn2</name>
<value>1.1.1.5:50070</value>
</property>
<property>
<name>dfs.namenode.servicerpc-address.bbb.nn1</name>
<value>1.1.1.4:8020</value>
</property>
<property>
<name>dfs.namenode.servicerpc-address.bbb.nn2</name>
<value>1.1.1.5:8020</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.bbb</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir.bbb</name>
<value>qjournal://1.1.1.4:8485;1.1.1.5:8485;1.1.1.6:8485/bbb</value>
</property> <property>
<name>dfs.namenode.name.dir</name>
<value>file:///data/dfs/nn/local</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data1/dfs/local,/data2/dfs/local</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/data/dfs/jn</value>
</property>
<property>
<name>dfs.qjournal.start-segment.timeout.ms</name>
<value>60000</value>
</property>
<property>
<name>dfs.qjournal.prepare-recovery.timeout.ms</name>
<value>240000</value>
</property>
<property>
<name>dfs.qjournal.accept-recovery.timeout.ms</name>
<value>240000</value>
</property>
<property>
<name>dfs.qjournal.finalize-segment.timeout.ms</name>
<value>240000</value>
</property>
<property>
<name>dfs.qjournal.select-input-streams.timeout.ms</name>
<value>60000</value>
</property>
<property>
<name>dfs.qjournal.get-journal-state.timeout.ms</name>
<value>240000</value>
</property>
<property>
<name>dfs.qjournal.new-epoch.timeout.ms</name>
<value>240000</value>
</property>
<property>
<name>dfs.qjournal.write-txns.timeout.ms</name>
<value>60000</value>
</property>
<property>
<name>dfs.namenode.acls.enabled</name>
<value>true</value>
<description>Number of replication for each chunk.</description>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/hdfs/.ssh/id_rsa</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.permissions.superusergroup</name>
<value>hadoop</value>
</property>
<property>
<name>dfs.datanode.max.transfer.threads</name>
<value>8192</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>/app/hadoop-conf/exclude.list</value>
<description> List of nodes to decommission </description>
</property>
<property>
<name>dfs.datanode.fsdataset.volume.choosing.policy</name>
<value>org.apache.hadoop.hdfs.server.datanode.fsdataset.AvailableSpaceVolumeChoosingPolicy</value>
</property>
<property>
<name>dfs.datanode.available-space-volume-choosing-policy.balanced-space-threshold</name>
<value>10737418240</value>
</property>
<property>
<name>dfs.datanode.available-space-volume-choosing-policy.balanced-space-preference-fraction</name>
<value>0.75</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.streams.cache.size</name>
<value>1000</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.streams.cache.expiry.ms</name>
<value>10000</value>
</property>
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hadoop-hdfs/dn._PORT</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.skip.checksum</name>
<value>false</value>
</property>
<property>
<name>dfs.block.size</name>
<value>536870912</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.handler.count</name>
<value>300</value>
</property>
<property>
<name>dfs.datanode.handler.count</name>
<value>40</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.namenode.datanode.registration.ip-hostname-check</name>
<value>false</value>
</property> <property>
<name>dfs.datanode.du.reserved</name>
<value>429496729600</value>
</property>
<!--hdfs balancer -policy datanode -threshold 5 -include -f host.txt-->
<!--限制允许Datanode平衡群集的最大并发块移动数,默认为5 -->
<property>
<name>dfs.datanode.balance.max.concurrent.moves</name>
<value>24</value>
</property>
<!--带宽100MB/s,默认为1MB/s-->
<property>
<name>dfs.datanode.balance.bandwidthPerSec</name>
<value>104857600</value>
</property>
<!--mover线程数,默认为1000-->
<property>
<name>dfs.balancer.moverThreads</name>
<value>1024</value>
</property>
<!--datanode传输的最大线程数(如果运行HBase的话建议为16384) -->
<property>
<name>dfs.datanode.max.transfer.threads</name>
<value>4096/value>
</property>
<!--datanode传输的最大线程数(如果运行HBase的话建议为16384) -->
<property>
<name>dfs.datanode.max.transfer.threads</name>
<value>4096/value>
</property>
<!--datanode最大移动数据大小, 默认为10737418240 (=10GB)-->
<property>
<name>dfs.balancer.max-size-to-move</name>
<value>4096/value>
</property>
<!--$ hdfs dfsadmin -setBalancerBandwidth 1073741824
$ nohup hdfs balancer \
-Ddfs.datanode.balance.max.concurrent.moves = 10 \
-Ddfs.balancer.dispatcherThreads = 1024 \
-Ddfs.balance.bandwidthPerSec = 1073741824
-->
</configuration>

hadoop记录-hadoop集群日常运维命令的更多相关文章

  1. Hadoop集群日常运维

    (一)备份namenode的元数据 namenode中的元数据非常重要,如丢失或者损坏,则整个系统无法使用.因此应该经常对元数据进行备份,最好是异地备份. 1.将元数据复制到远程站点 (1)以下代码将 ...

  2. Hadoop集群日常运维 分类: A1_HADOOP 2015-03-01 21:26 502人阅读 评论(0) 收藏

    (一)备份namenode的元数据 namenode中的元数据非常重要,如丢失或者损坏,则整个系统无法使用.因此应该经常对元数据进行备份,最好是异地备份. 1.将元数据复制到远程站点 (1)以下代码将 ...

  3. vivo大规模 Kubernetes 集群自动化运维实践

    作者:vivo 互联网服务器团队-Zhang Rong 一.背景 随着vivo业务迁移到K8s的增长,我们需要将K8s部署到多个数据中心.如何高效.可靠的在数据中心管理多个大规模的K8s集群是我们面临 ...

  4. Docker Swarm 日常运维命令笔记

    之前介绍了Docker管理工具-Swarm部署记录,这里简单总结下Docker Swarm的日常维护命令,以作为平时运维笔记. Swarm作为一个管理Docker集群的工具,首先需要将其部署起来,可以 ...

  5. Ceph 存储集群-低级运维

    低级集群运维包括启动.停止.重启集群内的某个具体守护进程:更改某守护进程或子系统配置:增加或拆除守护进程.低级运维还经常遇到扩展.缩减 Ceph 集群,以及更换老旧.或损坏的硬件. 一.增加/删除 O ...

  6. Hadoop 启动/停止集群和节点的命令

    集群启动/停止Hadoop集群:start-all.sh    stop-all.sh 1) 启动NameNode, DataNode 2) 启动JournalNode, JournalNode在hd ...

  7. KingbaseES V8R6集群管理运维案例之---repmgr standby switchover故障

    案例说明: 在KingbaseES V8R6集群备库执行"repmgr standby switchover"时,切换失败,并且在执行过程中,伴随着"repmr stan ...

  8. es集群数据库~运维相关

    一 数据同步方案  1 ES-JDBC  不能实现删除同步操作.MYSQL如果删除,ES不会删除  2 logstash-input-jdbc  能实现insert update,但是仍然不能实现删除 ...

  9. ogg日常运维命令

    1.查看历史记录.快捷执行历史中的一条命令 GGSCI (11g) 32> h 23: view param exta24: info all25: lag exta.... GGSCI (11 ...

随机推荐

  1. OpenCV尝试

    我们来尝试,使用OpenCV来读入本地的一张图片,并使用库函数将其水平翻转.垂直翻转以及边缘提取,后将结果文件存入本地. 工具:VS2017  OpenCV4.0.1 怎么配置opencv/报错怎么办 ...

  2. SpringMVC归纳-2(Session会话、拦截器)

    要点: 1.HttpSession:一个session的建立是从一个用户向服务器发第一个请求开始,而以用户显式结束或session超时为结束,借助session能在一定时间内记录用户状态. 2.Mod ...

  3. C#零基础入门-2-Visual Studio (VS)程序初始化及各组成部分

    X:\Program Files (x86)\Microsoft Visual Studio 14.0\Common7\IDE\devenv.exe 可以使用桌面快捷方式启动,也可以从开始菜单启动,还 ...

  4. C# -- FTP上传下载

    C# -- FTP上传下载 1. C#实现FTP下载 private static void TestFtpDownloadFile(string strFtpPath, string strFile ...

  5. RESTful学习及应用

    原文转自前端路上,转载请注明出处:http://refined-x.com/2017/09/22/RESTful学习及应用/ RESTful是什么 RESTful是一种API架构,符合REST设计原则 ...

  6. Linux 基础学习:文件权限与种类

    1.文件权限 linux系统中通过 “ls -al”,可查看当前目录的所有文件的详细信息. 第一列代表这个文件的类型与权限: 第一个字符表示文件类型: [d]:表示目录文件 [-]:表示普通文件 [l ...

  7. Android高版本联网失败报错:Cleartext HTTP traffic to xxx not permitted解决方法

    前言:为保证用户数据和设备的安全,Google针对下一代 Android 系统(Android P) 的应用程序,将要求默认使用加密连接,这意味着 Android P 将禁止 App 使用所有未加密的 ...

  8. Core官方DI解析(5)-ServiceProviderEngine

    最后来看看前面一直说的Engine(工作引擎),工作引擎接口是IServiceProviderEngine在ServiceProvider的构造函数中看到了根据指定的Mode创建了不同的实现类,下面先 ...

  9. php支持解密的加密算法示例

    其实只是对位运算符的一种简单的应用. <?php class Helper_Inpass{ private $keys='thisismytoken';//token function inpa ...

  10. iframe知识点详解

    <iframe>标签规定一个内联框架,一个内联框架被用来在当前HTML文档中嵌入另一个文档. 1. 常用属性 2. 主要API 3. 轮询 4. 长轮询 5. 自适应 6. 安全性 7. ...