下面是Hadoop中CapacitySchedule配置,包含了新建队列和子队列

   <configuration>

     <property>
<name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
<value>0.2</value>
</property> <property>
<name>yarn.scheduler.capacity.maximum-applications</name>
<value>10000</value>
</property> <property>
<name>yarn.scheduler.capacity.node-locality-delay</name>
<value>40</value>
</property> <property>
<name>yarn.scheduler.capacity.queue-mappings-override.enable</name>
<value>false</value>
</property> <property>
<name>yarn.scheduler.capacity.resource-calculator</name>
<value>org.apache.hadoop.yarn.util.resource.DominantResourceCalculator</value>
</property> <property>
<name>yarn.scheduler.capacity.root.accessible-node-labels</name>
<value>*</value>
<description></description>
</property> <property>
<name>yarn.scheduler.capacity.root.acl_administer_queue</name>
<value>*</value>
<description></description>
</property> <property>
<name>yarn.scheduler.capacity.root.capacity</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.capacity</name>
<value>50</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.default.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.queues</name>
<value>default,spark,hadoop</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.capacity</name>
<value>30</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.capacity</name>
<value>20</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.hadoop.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.queues</name>
<value>spark1,spark2</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.capacity</name>
<value>50</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark1.user-limit-factor</name>
<value>1</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.acl_administer_queue</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.acl_submit_applications</name>
<value>*</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.capacity</name>
<value>50</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.maximum-capacity</name>
<value>70</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.minimum-user-limit-percent</name>
<value>100</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.ordering-policy</name>
<value>fifo</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.state</name>
<value>RUNNING</value>
</property> <property>
<name>yarn.scheduler.capacity.root.spark.spark2.user-limit-factor</name>
<value>1</value>
</property>
</configuration>

Hadoop CapacitySchedule配置的更多相关文章

  1. CentOS 7 Hadoop安装配置

    前言:我使用了两台计算机进行集群的配置,如果是单机的话可能会出现部分问题.首先设置两台计算机的主机名 root 权限打开/etc/host文件 再设置hostname,root权限打开/etc/hos ...

  2. ubuntu下hadoop环境配置

    软件环境: 虚拟机:VMware Workstation 10 操作系统:ubuntu-12.04-desktop-amd64 JAVA版本:jdk-7u55-linux-x64 Hadoop版本:h ...

  3. hadoop(四):配置参数

    hadoop参数配置,主要是配置 core-site.xml,hdfs-site.xml,mapred-site.xml 三个配置文件,core-site.xml是全局配置,hdfs-site.xml ...

  4. hadoop mapred-queue-acls 配置(转)

    hadoop作业提交时可以指定相应的队列,例如:-Dmapred.job.queue.name=queue2通过对mapred-queue-acls.xml和mapred-site.xml配置可以对不 ...

  5. hadoop安装配置——伪分布模式

    1. 安装 这里以安装hadoop-0.20.2为例 先安装java,参考这个 去着下载hadoop 解压 2. 配置 修改环境变量 vim ~/.bashrc export HADOOP_HOME= ...

  6. Hadoop平台配置总结

    hadoop的配置,个人感觉是非常容易出问题.一个原因是要配置的地方多,还有个原因就是集群配置要在几台机器上都配置正确,才能保证配置好hadoop,跑起任务. 经过昨晚加今天上午的折腾,总算成功配好了 ...

  7. 有关hadoop分布式配置详解

    linux配置ssh无密码登录 配置ssh无密码登录,先要安装openssh,如下: yum install openssh-clients 准备两台linux服务器或虚拟机,设置两台linux的ho ...

  8. CentOS Hadoop安装配置详细

    总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs.mapreduce等主从关系. 1.环境,3台CentOS7,64位,Hadoo ...

  9. Hadoop的配置过程(虚拟机中的伪分布模式)

    1引言 hadoop如今已经成为大数据处理中不可缺少的关键技术,在如今大数据爆炸的时代,hadoop给我们处理海量数据提供了强有力的技术支撑.因此,了解hadoop的原理与应用方法是必要的技术知识. ...

随机推荐

  1. src.rpm包的解压

    有时候,我们在找源码包时候,发现有src.rpm的包:而不是tar.gz/tgz/zip结尾的. 那么如何去看这个src.rpm里面的详细信息呢? 看完下面这个例子,基本上明白了. 1,首先,生成sp ...

  2. [转] malloc基本实现

    任何一个用过或学过C的人对malloc都不会陌生.大家都知道malloc可以分配一段连续的内存空间,并且在不再使用时可以通过free释放掉.但是,许多程序员对malloc背后的事情并不熟悉,许多人甚至 ...

  3. [转载]IIS6.0开启WOFF/SVG文件支持

    http://www.bao21.com/120.html http://stackoverflow.com/questions/18369036/bootstrap-3-glyphicons-not ...

  4. [转载]C语言程序的内存分配方式

    "声明一个数组时,编译器将根据声明所指定的元素数量为数量为数组保留内存空间."其实就是编译器在编译的过程中,会加入几条汇编指令在程序里处理内存分配,并不是说编译时就分配了内存,不要 ...

  5. 针对用户在个人中心绑定手机认证的一些js代码。

    需求: 1:手机号码校验(格式的校验,手机号码是否已经绑定过)---未实现 2:填完手机号码,点击发送验证码,手机会收到一条信息 3:发送验证码按钮不可用,变成重新发送的倒计时 1):60秒以后又可以 ...

  6. Codeforces Round #540 (Div. 3)题解

    题目链接: https://codeforces.com/contest/1118 A题: 题意: q次查询,给你一个n,要你用1和2来凑出n,1的花费为a,2的花费为b,求花费的最小值. 思路: 我 ...

  7. POJ3233_Matrix Power Series_矩阵幂_C++

    题目:http://poj.org/problem?id=3233 这是今天考试的题目,结果没想出来写了个暴力30分,看完题解之后觉得自己是SB 首先暴力就是一个个乘然后相加,时间是O(kn3),极限 ...

  8. CF264B Good Sequences

    传送门 Description: 松鼠丽丝特别喜欢n个她称之为“好整数”的整数:a1,a2,……,an.(会输入) 现在,她对“好序列”很感兴趣.如果一个序列x1,x2,...,xk能够满足一下三个条 ...

  9. 信息安全学习笔记--XSS

    一.XSS简介 XSS (Cross Site Scripting)是一种经常出现在web应用中的计算机安全漏洞,它允许恶意web用户将代码植入到提供给其它用户使用的页面中.比如这些代码包括HTML代 ...

  10. python+selenium初学者常见问题处理

    要做web自动化,第一件事情就是搭建自动化测试环境,那就没法避免的要用到selenium了. 那在搭建环境和使用过程中经常会遇到以下几类问题: 1.引入selenium包失败: 出现这种错误,一般分为 ...