说明:这是hadoop2.x版本的参数。下面的value都是参数默认值。

常用配置:

♥♥♥

.mapreduce.job.hdfs-servers

value:${fs.defaultFS}   

说明:job客户端参数。

.mapreduce.task.io.sort.factor

value:

说明:在Reduce Task阶段,排序文件时一次合并的流的数量。 这决定了打开文件句柄的数量。也即是一次合并的文件数据,每次合并的时候选择最小的前10进行合并。

.mapreduce.task.io.sort.mb

value:

说明:排序文件时使用的缓冲区内存总量,以兆字节为单位。 默认情况下,为每个合并流提供1MB,这应该最小化搜索。

.mapreduce.map.sort.spill.percent

value:0.8

说明:Map阶段溢写文件的阈值(排序缓冲区大小的百分比)。

.mapreduce.jobtracker.address

value:local

说明:MapReduce作业跟踪器运行的主机和端口。 如果是“本地”,则作业将作为单个映射在进程中运行并减少任务。

.mapreduce.job.maps

value:

说明:单个任务的map数量。

.mapreduce.job.reduces

value:

说明:单个任务的reduce数量。

 .mapreduce.job.running.map.limit

value:

说明:单个任务并发的最大map数,0或负数没有限制

.mapreduce.job.running.reduce.limit

value:

单个任务并发的最大reduce数,0或负数没有限制

.mapreduce.job.max.map

value:-

说明:单个任务允许的最大map数,-1表示没有限制。

.mapreduce.job.max.split.locations

value:

说明:分片数量

.mapreduce.job.split.metainfo.maxsize

value:

说明:split的元数据信息数量,如果value为-,则没有限制

.mapreduce.map.maxattempts

value:

说明:每个 Map Task 最大重试次数,一旦重试参数超过该值,则认为 Map Task 运行失败。

.mapreduce.reduce.maxattempts

value:

说明:每个 reduce Task 最大重试次数,一旦重试参数超过该值,则认为 reduce Task 运行失败。

.mapreduce.reduce.shuffle.parallelcopies

value:

说明:Reduce Task启动的并发拷贝数据的线程数目

 .mapreduce.task.timeout

value:

说明:如果任务既不读取输入,也不写入输出,也不更新其状态字符串,则任务终止之前的毫秒数。0表示禁用超时。

.mapreduce.map.memory.mb

value:

说明:每个Map Task需要的内存量

.mapreduce.map.cpu.vcores

value:

说明:每个Map Task需要的虚拟CPU个数

.mapreduce.reduce.memory.mb

value:

说明:每个Reduce Task需要的内存量

.mapreduce.reduce.cpu.vcores

value:

说明:每个Reduce Task需要的虚拟CPU个数

.mapred.child.java.opts

value:-Xmx200m

说明:jvm启动的子线程可以使用的最大内存。建议值-XX:-UseGCOverheadLimit -Xms512m -Xmx2048m -verbose:gc -Xloggc:/tmp/@taskid@.gc

.yarn.app.mapreduce.am.resource.mb

value:

说明:MR ApplicationMaster占用的内存量。

.yarn.app.mapreduce.am.resource.cpu-vcores

value:

说明:MR ApplicationMaster占用的虚拟CPU个数。

.mapreduce.jobhistory.address

value:0.0.0.0:

说明:指定历史服务器的地址和端口

.mapreduce.jobhistory.webapp.address

value:0.0.0.0:

说明:历史服务器的web地址

.mapreduce.map.java.opts

value:-Xmx1024m

说明:每个map任务的jvm需要的内存量,一般为map内存的0.

.mapreduce.reduce.java.opts

value:

说明:每个reduce任务jvm需要的内存量。为reduce内存量的0.

.mapreduce.map.output.compress

value:false

说明: map输出是否进行压缩,如果压缩就会多耗cpu,但是减少传输时间,如果不压缩,就需要较多的传输带宽,默认是false。配合 mapreduce.map.output.compress.codec使用

.mapreduce.map.output.compress.codec

value:org.apache.hadoop.io.compress.DefaultCodec

不常用配置:

.mapreduce.local.clientfactory.class.name

value:org.apache.hadoop.mapred.LocalClientFactory

说明:这是负责创建本地作业运行客户端的客户端工厂。

.mapreduce.jobtracker.system.dir

value:${hadoop.tmp.dir}/mapred/system

说明:MapReduce存储控制文件的目录,可配置多块硬盘,逗号分隔。

.mapreduce.jobtracker.staging.root.dir

value:${hadoop.tmp.dir}/mapred/staging

说明:用来存放与每个job相关的数据

.mapreduce.cluster.temp.dir

value:${hadoop.tmp.dir}/mapred/temp

说明:用来存放临时文件共享的目录。

.mapreduce.job.reducer.preempt.delay.sec

value:

说明:

.mapreduce.reduce.shuffle.fetch.retry.enabled

value:${yarn.nodemanager.recovery.enabled}

说明:设置主机重新启动期间启用提取重试。

.mapreduce.reduce.shuffle.fetch.retry.interval-ms

value:

说明:提取器重试再次获取的时间间隔。

.mapreduce.reduce.shuffle.fetch.retry.timeout-ms

value:

说明:取回超时时间

.mapreduce.reduce.shuffle.retry-delay.max.ms

value:

说明:在重试下载map数据之前,reducer将延迟的最大ms数。

.mapreduce.reduce.shuffle.connect.timeout

value:

说明:reduce task 连接map的超时时间,以毫秒为单位。

.mapreduce.reduce.shuffle.read.timeout

value:

说明:map 输出数据,reduce连接以后可用于读取的最长时间,以毫秒为单位。

.mapreduce.shuffle.listen.queue.size

value:

说明:shuffle侦听队列的长度

.mapreduce.shuffle.connection-keep-alive.enable

value:false

说明:是否保持活跃连接,默认为false。

.mapreduce.shuffle.connection-keep-alive.timeout

value:

说明:保持活跃连接的秒数。

.yarn.app.mapreduce.am.log.level

value:info

说明:MR ApplicationMaster的日志记录级别。 允许的级别为:OFF,FATAL,ERROR,WARN,INFO,DEBUG,TRACE和ALL。 如果设置了“mapreduce.job.log4j-properties-file”,则可以覆盖此处的设置。

.mapreduce.map.log.level

value:info

说明:map任务的日志记录级别。 允许的级别为:OFF,FATAL,ERROR,WARN,INFO,DEBUG,TRACE和ALL。 如果设置了“mapreduce.job.log4j-properties-file”,则可以覆盖此处的设置。

.mapreduce.reduce.log.level

value:info

说明:reduce任务的日志记录级别。 允许的级别为:OFF,FATAL,ERROR,WARN,INFO,DEBUG,TRACE和ALL。 如果设置了“mapreduce.job.log4j-properties-file”,则可以覆盖此处的设置。

.mapreduce.reduce.merge.inmem.threshold

value:

说明:设置了Map任务在缓存溢出前能够保留在内存中的输出个数的阈值(默认1000),只要一个满足,输出数据都将会写到磁盘。

.mapreduce.reduce.shuffle.merge.percent

value:0.66

说明:决定缓存溢出到磁盘的阈值(默认0.),即占用分配给map输出总内存的百分比。

.mapreduce.reduce.shuffle.input.buffer.percent

value:0.70

说明:Reduce任务对多个Map任务的输出结果进行合并时,占用的缓存空间在堆栈空间中的占用比例(默认0.)。

.mapreduce.reduce.input.buffer.percent

value:

说明:reduce函数开始运行时,内存中的map输出所占的堆内存比例不得高于这个值,默认情况内存都用于reduce函数,也就是map输出都写入到磁盘

.mapreduce.reduce.shuffle.memory.limit.percent

value:0.25

说明:一个单一的shuffle的最大内存使用限制

.mapreduce.shuffle.ssl.enabled

value:false

说明:是否将SSL用于Shuffle HTTP端点。

.mapreduce.shuffle.ssl.file.buffer.size

value:

说明:使用SSL时从文件读取溢出的缓冲区大小。

配置文件常用配置:

 <property>
<name>mapreduce.map.memory.mb</name>
<value></value>
</property> <property>
<name>mapreduce.map.java.opts</name>
<value>-Xmx819M</value>
</property> <property>
<name>mapreduce.reduce.memory.mb</name>
<value></value>
</property> <property>
<name>mapreduce.reduce.java.opts</name>
<value>-Xmx1638M</value>
</property> <property>
<name>mapreduce.task.io.sort.mb</name>
<value></value>
</property> <property>
<name>mapreduce.task.io.sort.factor</name>
<value></value>
</property>
<property>
<name>mapreduce.tasktracker.http.threads</name>
<value></value>
</property>
<property>
<name>mapreduce.reduce.shuffle.parallelcopies</name>
<value></value>
</property>
<property>
<name>mapreduce.map.output.compress</name>
<value>true</value>
</property>
<property>
<name>mapreduce.map.output.compress.codec</name>
<value>org.apache.hadoop.io.compress.DefaultCodec</value>
</property>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobtracker.address</name>
<value>master:</value>
</property>

mapred-site.xml 基本配置参考的更多相关文章

  1. yarn-site.xml 基本配置参考

    以下只是对yarn配置文件(yarn.site.xml)简单的一个配置 <configuration> <!-- rm失联后重新链接的时间 --> <property&g ...

  2. hdfs-site.xml 基本配置参考

    配置参数: 1.dfs.nameservices 说明:为namenode集群定义一个services name 默认值:null 比如设置为:ns1 2.dfs.ha.namenodes.<d ...

  3. log4j配置参考手册:log4j.properties和log4j.xml两种格式

    log4j是Java Web开发中,最常用的日志组件之一.网上关于log4j的配置满天飞,我主要是从网上学习的配置.之前的很多年,主要使用log4j.properties这种格式.后来,项目中boss ...

  4. 源码跟读,Spring是如何解析和加载xml中配置的beans

    Spring版本基于: 跟踪代码源码基于: https://github.com/deng-cc/KeepLearning commit id:c009ce47bd19e1faf9e07f12086c ...

  5. Dubbo -- 系统学习 笔记 -- 配置参考手册

    Dubbo -- 系统学习 笔记 -- 目录 配置参考手册 <dubbo:service/> <dubbo:reference/> <dubbo:protocol/> ...

  6. 为什么Spring Boot推荐使用logback-spring.xml来替代logback.xml来配置logback日志的问题分析

    最根本的原因: 即,logback.xml加载早于application.properties,所以如果你在logback.xml使用了变量时,而恰好这个变量是写在application.proper ...

  7. MyBatis—mapper.xml映射配置

    SQL文件映射(mapper文件),几个顶级元素的配置: mapper元素:根节点只有一个属性namespace(命名空间)作用: 1:用于区分不同的mapper,全局唯一. 2:绑定DAO接口,即面 ...

  8. Maven项目settings.xml的配置

    原文地址 http://www.cnblogs.com/DreamDrive/p/5571916.html 在Maven中提供了一个settings.xml文件来定义Maven的全局环境信息.这个文件 ...

  9. 在spring-mybatis.xml 中配置pagehelper

    maven导包:<dependency> <groupId>org.mybatis</groupId> <artifactId>mybatis</ ...

随机推荐

  1. MySQL的安装及简单配置

    一 .数据库概念 Mysql能干嘛呢? 它就是一款软件,安装在任何一台计算机或者服务器上的时候,只要我告诉它创建一个文件,新增一个数据,删除一个数据它就能帮我去做想要的操作 那我们暂且能不能理解为my ...

  2. (转)使用SDWebImage和YYImage下载高分辨率图,导致内存暴增的解决办法

    http://blog.csdn.net/guojiezhi/article/details/52033796

  3. Haddop完全分布式集群搭建

    hadoop完全分布式搭建 建议(遇到的坑): 如果自己用的操作系统就是linux,我本身是deepin系统,装了两台虚拟机,结果,用户名没有配置,导致启动不了,因为hadoop的master节点启动 ...

  4. Android笔记(三十一)Android中线程之间的通信(三)子线程给主线程发送消息

    先看简单示例:点击按钮,2s之后,TextView改变内容. package cn.lixyz.handlertest; import android.app.Activity; import and ...

  5. Linux磁盘管理——虚拟文件系统

    前言 Linux支持众多文件系统,包括: 传统文件系统:ext2 / minix / MS-DOS / FAT (用 vfat 模块) / iso9660 (光盘)等等:日志式文件系统: ext3 / ...

  6. [postman][API 测试]用Postman做RestAPI测试学习笔记

    痛点:最近有个API网关的兼容性测试任务,需要验证API是否可用,返回值符合预期,如果手工复制粘贴curl命令,繁琐且低效 调研时发现了Postman 这个chrom插件,试用了2天后发现使用起来很方 ...

  7. Ubuntu16.04, CUDA8 CUDNN6 下安装 Tensorflow-gpu, Keras, Pytorch, fastai

    如何访问tensorflow官方网站 tensorflow官方网站变为:https://tensorflow.google.cn/ 安装深度学习框架 0. ubuntu查看CUDA和cuDNN版本 C ...

  8. Python3 acm基础输入输出

    案例一:输入字符串分割并转化成多个int数值 a, b= map(int, input().split()) try: while True: a, b= map(int, input().split ...

  9. python中部分数据类型及其使用方法

    1.数据类型: int:整数 str:字符串,一般不存放大量的数据 bool:布尔值,用来判断 只有两个值 True False  list:列表,用来存放大量数据[]来表示,里面可以放任何数据类型 ...

  10. Git---报错:git Please move or remove them before you can merge 解决方案

    场景: 当前在本地仓库lucky,因修改了123.txt的文件内容,需要将lucky分支push到远程Git库,在push前有其他的同事已删除了远程Git库中的123.txt文件.因此这时就产生了远程 ...