hadoop配置文件的参数含义说明
#hadoop version 查看版本号
1 、获取默认配置
hadoop2系列配置文件一共包括6个,分别是hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml和slaves。除了hdfs-site.xml文件在不同集群配置不同外,其余文件在四个节点的配置是完全一样的,可以复制。
另外,core-site.xml是全局配置,hdfs-site.xml和mapred-site.xml分别是hdfs和mapred的局部配置
浏览apache官网,几个hadoop当前版本号的默认配置文件各项相关的说明链接如下:
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/core-default.xml
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml
http://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-common/yarn-default.xml
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/DeprecatedProperties.html (由于版本更替,新旧参数名称的对照表)
2、常用的端口配置
2.1 HDFS端口
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
fs.default.name namenode |
namenode RPC交互端口 |
8020 |
core-site.xml |
hdfs://master:8020/ |
|
dfs.http.address |
NameNode web管理端口 |
50070 |
hdfs- site.xml |
0.0.0.0:50070 |
|
dfs.datanode.address |
datanode 控制端口 |
50010 |
hdfs -site.xml |
0.0.0.0:50010 |
|
dfs.datanode.ipc.address |
datanode的RPC服务器地址和端口 |
50020 |
hdfs-site.xml |
0.0.0.0:50020 |
|
dfs.datanode.http.address |
datanode的HTTP服务器和端口 |
50075 |
hdfs-site.xml |
0.0.0.0:50075 |
2.2 MR端口
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
mapred.job.tracker |
job-tracker交互端口 |
8021 |
mapred-site.xml |
hdfs://master:8021/ |
|
job |
tracker的web管理端口 |
50030 |
mapred-site.xml |
0.0.0.0:50030 |
|
mapred.task.tracker.http.address |
task-tracker的HTTP端口 |
50060 |
mapred-site.xml |
0.0.0.0:50060 |
2.3 其它端口
|
参数 |
描述 |
默认 |
配置文件 |
例子值 |
|
dfs.namenode.secondary.http-address |
secondary NameNode web管理端口 |
50090 |
hdfs-site.xml |
0.0.0.0:50090 |
3、缺省配置参考文件说明(中文)
以下可能有些参数名发生过变动,请参照
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/DeprecatedProperties.html
3.1 core-default.html
|
序号 |
参数名 |
参数值 |
参数说明 |
|
1 |
hadoop.tmp.dir |
/tmp/hadoop-${user.name} |
临时目录设定 |
|
2 |
hadoop.native.lib |
true |
使用本地hadoop库标识。 |
|
3 |
hadoop.http.filter.initializers |
http服务器过滤链设置 |
|
|
4 |
hadoop.security.group.mapping |
org.apache.hadoop.security.ShellBasedUnixGroupsMapping |
组内用户的列表的类设定 |
|
5 |
hadoop.security.authorization |
false |
服务端认证开启 |
|
6 |
hadoop.security.authentication |
simple |
无认证或认证设置 |
|
7 |
hadoop.security.token.service.use_ip |
true |
是否开启使用IP地址作为连接的开关 |
|
8 |
hadoop.logfile.size |
10000000 |
日志文件最大为10M |
|
9 |
hadoop.logfile.count |
10 |
日志文件数量为10个 |
|
10 |
io.file.buffer.size |
4096 |
流文件的缓冲区为4K |
|
11 |
io.bytes.per.checksum |
512 |
校验位数为512字节 |
|
12 |
io.skip.checksum.errors |
false |
校验出错后是抛出异常还是略过标识。True则略过。 |
|
13 |
io.compression.codecs |
org.apache.hadoop.io.compress.DefaultCodec, org.apache.hadoop.io.compress.GzipCodec, org.apache.hadoop.io.compress.BZip2Codec, org.apache.hadoop.io.compress.SnappyCodec |
压缩和解压的方式设置 |
|
14 |
io.serializations |
org.apache.hadoop.io.serializer.WritableSerialization |
序例化和反序列化的类设定 |
|
15 |
fs.default.name |
file:/// |
缺省的文件URI标识设定。 |
|
16 |
fs.trash.interval |
0 |
文件废弃标识设定,0为禁止此功能 |
|
17 |
fs.file.impl |
org.apache.hadoop.fs.LocalFileSystem |
本地文件操作类设置 |
|
18 |
fs.hdfs.impl |
org.apache.hadoop.hdfs.DistributedFileSystem |
HDFS文件操作类设置 |
|
19 |
fs.s3.impl |
org.apache.hadoop.fs.s3.S3FileSystem |
S3文件操作类设置 |
|
20 |
fs.s3n.impl |
org.apache.hadoop.fs.s3native.NativeS3FileSystem |
S3文件本地操作类设置 |
|
21 |
fs.kfs.impl |
org.apache.hadoop.fs.kfs.KosmosFileSystem |
KFS文件操作类设置. |
|
22 |
fs.hftp.impl |
org.apache.hadoop.hdfs.HftpFileSystem |
HTTP方式操作文件设置 |
|
23 |
fs.hsftp.impl |
org.apache.hadoop.hdfs.HsftpFileSystem |
HTTPS方式操作文件设置 |
|
24 |
fs.webhdfs.impl |
org.apache.hadoop.hdfs.web.WebHdfsFileSystem |
WEB方式操作文件类设置 |
|
25 |
fs.ftp.impl |
org.apache.hadoop.fs.ftp.FTPFileSystem |
FTP文件操作类设置 |
|
26 |
fs.ramfs.impl |
org.apache.hadoop.fs.InMemoryFileSystem |
内存文件操作类设置 |
|
27 |
fs.har.impl |
org.apache.hadoop.fs.HarFileSystem |
压缩文件操作类设置. |
|
28 |
fs.har.impl.disable.cache |
true |
是否缓存har文件的标识设定 |
|
29 |
fs.checkpoint.dir |
${hadoop.tmp.dir}/dfs/namesecondary |
备份名称节点的存放目前录设置 |
|
30 |
fs.checkpoint.edits.dir |
${fs.checkpoint.dir} |
备份名称节点日志文件的存放目前录设置 |
|
31 |
fs.checkpoint.period |
3600 |
动态检查的间隔时间设置 |
|
32 |
fs.checkpoint.size |
67108864 |
日志文件大小为64M |
|
33 |
fs.s3.block.size |
67108864 |
写S3文件系统的块的大小为64M |
|
34 |
fs.s3.buffer.dir |
${hadoop.tmp.dir}/s3 |
S3文件数据的本地存放目录 |
|
35 |
fs.s3.maxRetries |
4 |
S3文件数据的偿试读写次数 |
|
36 |
fs.s3.sleepTimeSeconds |
10 |
S3文件偿试的间隔 |
|
37 |
local.cache.size |
10737418240 |
缓存大小设置为10GB |
|
38 |
io.seqfile.compress.blocksize |
1000000 |
压缩流式文件中的最小块数为100万 |
|
39 |
io.seqfile.lazydecompress |
true |
块是否需要压缩标识设定 |
|
40 |
io.seqfile.sorter.recordlimit |
1000000 |
内存中排序记录块类最小为100万 |
|
41 |
io.mapfile.bloom.size |
1048576 |
BloomMapFiler过滤量为1M |
|
42 |
io.mapfile.bloom.error.rate |
0.005 |
|
|
43 |
hadoop.util.hash.type |
murmur |
缺少hash方法为murmur |
|
44 |
ipc.client.idlethreshold |
4000 |
连接数据最小阀值为4000 |
|
45 |
ipc.client.kill.max |
10 |
一个客户端连接数最大值为10 |
|
46 |
ipc.client.connection.maxidletime |
10000 |
断开与服务器连接的时间最大为10秒 |
|
47 |
ipc.client.connect.max.retries |
10 |
建立与服务器连接的重试次数为10次 |
|
48 |
ipc.server.listen.queue.size |
128 |
接收客户连接的监听队例的长度为128 |
|
49 |
ipc.server.tcpnodelay |
false |
开启或关闭服务器端TCP连接算法 |
|
50 |
ipc.client.tcpnodelay |
false |
开启或关闭客户端TCP连接算法 |
|
51 |
webinterface.private.actions |
false |
Web交互的行为设定 |
|
52 |
hadoop.rpc.socket.factory.class.default |
org.apache.hadoop.net.StandardSocketFactory |
缺省的socket工厂类设置 |
|
53 |
hadoop.rpc.socket.factory.class.ClientProtocol |
与dfs连接时的缺省socket工厂类 |
|
|
54 |
hadoop.socks.server |
服务端的工厂类缺省设置为SocksSocketFactory. |
|
|
55 |
topology.node.switch.mapping.impl |
org.apache.hadoop.net.ScriptBasedMapping |
|
|
56 |
topology.script.file.name |
||
|
57 |
topology.script.number.args |
100 |
参数数量最多为100 |
|
58 |
hadoop.security.uid.cache.secs |
14400 |
3.2 hdfs-default.html
|
序号 |
参数名 |
参数值 |
参数说明 |
|
1 |
dfs.namenode.logging.level |
info |
输出日志类型 |
|
2 |
dfs.secondary.http.address |
0.0.0.0:50090 |
备份名称节点的http协议访问地址与端口 |
|
3 |
dfs.datanode.address |
0.0.0.0:50010 |
数据节点的TCP管理服务地址和端口 |
|
4 |
dfs.datanode.http.address |
0.0.0.0:50075 |
数据节点的HTTP协议访问地址和端口 |
|
5 |
dfs.datanode.ipc.address |
0.0.0.0:50020 |
数据节点的IPC服务访问地址和端口 |
|
6 |
dfs.datanode.handler.count |
3 |
数据节点的服务连接处理线程数 |
|
7 |
dfs.http.address |
0.0.0.0:50070 |
名称节点的http协议访问地址与端口 |
|
8 |
dfs.https.enable |
false |
支持https访问方式标识 |
|
9 |
dfs.https.need.client.auth |
false |
客户端指定https访问标识 |
|
10 |
dfs.https.server.keystore.resource |
ssl-server.xml |
Ssl密钥服务端的配置文件 |
|
11 |
dfs.https.client.keystore.resource |
ssl-client.xml |
Ssl密钥客户端的配置文件 |
|
12 |
dfs.datanode.https.address |
0.0.0.0:50475 |
数据节点的HTTPS协议访问地址和端口 |
|
13 |
dfs.https.address |
0.0.0.0:50470 |
名称节点的HTTPS协议访问地址和端口 |
|
14 |
dfs.datanode.dns.interface |
default |
数据节点采用IP地址标识 |
|
15 |
dfs.datanode.dns.nameserver |
default |
指定DNS的IP地址 |
|
16 |
dfs.replication.considerLoad |
true |
加载目标或不加载的标识 |
|
17 |
dfs.default.chunk.view.size |
32768 |
浏览时的文件块大小设置为32K |
|
18 |
dfs.datanode.du.reserved |
0 |
每个卷预留的空闲空间数量 |
|
19 |
dfs.name.dir |
${hadoop.tmp.dir}/dfs/name |
存贮在本地的名字节点数据镜象的目录,作为名字节点的冗余备份 |
|
20 |
dfs.name.edits.dir |
${dfs.name.dir} |
存贮文件操作过程信息的存贮目录 |
|
21 |
dfs.web.ugi |
webuser,webgroup |
Web接口访问的用户名和组的帐户设定 |
|
22 |
dfs.permissions |
true |
文件操作时的权限检查标识。 |
|
23 |
dfs.permissions.supergroup |
supergroup |
超级用户的组名定义 |
|
24 |
dfs.block.access.token.enable |
false |
数据节点访问令牌标识 |
|
25 |
dfs.block.access.key.update.interval |
600 |
升级访问钥时的间隔时间 |
|
26 |
dfs.block.access.token.lifetime |
600 |
访问令牌的有效时间 |
|
27 |
dfs.data.dir |
${hadoop.tmp.dir}/dfs/data |
数据节点的块本地存放目录 |
|
28 |
dfs.datanode.data.dir.perm |
755 |
数据节点的存贮块的目录访问权限设置 |
|
29 |
dfs.replication |
3 |
缺省的块复制数量 |
|
30 |
dfs.replication.max |
512 |
块复制的最大数量 |
|
31 |
dfs.replication.min |
1 |
块复制的最小数量 |
|
32 |
dfs.block.size |
67108864 |
缺省的文件块大小为64M |
|
33 |
dfs.df.interval |
60000 |
磁盘空间统计间隔为6秒 |
|
34 |
dfs.client.block.write.retries |
3 |
块写入出错时的重试次数 |
|
35 |
dfs.blockreport.intervalMsec |
3600000 |
块的报告间隔时为1小时 |
|
36 |
dfs.blockreport.initialDelay |
0 |
块顺序报告的间隔时间 |
|
37 |
dfs.heartbeat.interval |
3 |
数据节点的心跳检测间隔时间 |
|
38 |
dfs.namenode.handler.count |
10 |
名称节点的连接处理的线程数量 |
|
39 |
dfs.safemode.threshold.pct |
0.999f |
启动安全模式的阀值设定 |
|
40 |
dfs.safemode.extension |
30000 |
当阀值达到量值后扩展的时限 |
|
41 |
dfs.balance.bandwidthPerSec |
1048576 |
启动负载均衡的数据节点可利用带宽最大值为1M |
|
42 |
dfs.hosts |
可与名称节点连接的主机地址文件指定。 |
|
|
43 |
dfs.hosts.exclude |
不充计与名称节点连接的主机地址文件设定 |
|
|
44 |
dfs.max.objects |
0 |
文件数、目录数、块数的最大数量 |
|
45 |
dfs.namenode.decommission.interval |
30 |
名称节点解除命令执行时的监测时间周期 |
|
46 |
dfs.namenode.decommission.nodes.per.interval |
5 |
名称节点解除命令执行是否完检测次数 |
|
47 |
dfs.replication.interval |
3 |
名称节点计算数据节点的复制工作的周期数. |
|
48 |
dfs.access.time.precision |
3600000 |
充许访问文件的时间精确到1小时 |
|
49 |
dfs.support.append |
false |
是否充许链接文件指定 |
|
50 |
dfs.namenode.delegation.key.update-interval |
86400000 |
名称节点上的代理令牌的主key的更新间隔时间为24小时 |
|
51 |
dfs.namenode.delegation.token.max-lifetime |
604800000 |
代理令牌的有效时间最大值为7天 |
|
52 |
dfs.namenode.delegation.token.renew-interval |
86400000 |
代理令牌的更新时间为24小时 |
|
53 |
dfs.datanode.failed.volumes.tolerated |
0 |
决定停止数据节点提供服务充许卷的出错次数。0次则任何卷出错都要停止数据节点 |
3.3 mapred-default.html
|
序号 |
参数名 |
参数值 |
参数说明 |
|
1 |
hadoop.job.history.location |
作业跟踪管理器的静态历史文件的存放目录。 |
|
|
2 |
hadoop.job.history.user.location |
可以指定具体某个作业的跟踪管理器的历史文件存放目录 |
|
|
3 |
mapred.job.tracker.history.completed.location |
已完成作业的历史文件的存放目录 |
|
|
4 |
io.sort.factor |
10 |
排完序的文件的合并时的打开文件句柄数 |
|
5 |
io.sort.mb |
100 |
排序文件的内存缓存大小为100M |
|
6 |
io.sort.record.percent |
0.05 |
排序线程阻塞的内存缓存剩余比率 |
|
7 |
io.sort.spill.percent |
0.80 |
当缓冲占用量为该值时,线程需要将内容先备份到磁盘中。 |
|
8 |
io.map.index.skip |
0 |
索引条目的间隔设定 |
|
9 |
mapred.job.tracker |
local |
作业跟踪管理器是否和MR任务在一个进程中 |
|
10 |
mapred.job.tracker.http.address |
0.0.0.0:50030 |
作业跟踪管理器的HTTP服务器访问端口和地址 |
|
11 |
mapred.job.tracker.handler.count |
10 |
作业跟踪管理器的管理线程数,线程数比例是任务管理跟踪器数量的0.04 |
|
12 |
mapred.task.tracker.report.address |
127.0.0.1:0 |
任务管理跟踪器的主机地址和端口地址 |
|
13 |
mapred.local.dir |
${hadoop.tmp.dir}/mapred/local |
MR的中介数据文件存放目录 |
|
14 |
mapred.system.dir |
${hadoop.tmp.dir}/mapred/system |
MR的控制文件存放目录 |
|
15 |
mapreduce.jobtracker.staging.root.dir |
${hadoop.tmp.dir}/mapred/staging |
每个正在运行作业文件的存放区 |
|
16 |
mapred.temp.dir |
${hadoop.tmp.dir}/mapred/temp |
MR临时共享文件存放区 |
|
17 |
mapred.local.dir.minspacestart |
0 |
MR本地中介文件删除时,不充许有任务执行的数量值。 |
|
18 |
mapred.local.dir.minspacekill |
0 |
MR本地中介文件删除时,除非所有任务都已完成的数量值。 |
|
19 |
mapred.tasktracker.expiry.interval |
600000 |
任务管理跟踪器不发送心跳的累计时间间隔超过600秒,则任务管理跟踪器失效 |
|
20 |
mapred.tasktracker.resourcecalculatorplugin |
指定的一个用户访问资源信息的类实例 |
|
|
21 |
mapred.tasktracker.taskmemorymanager.monitoring-interval |
5000 |
监控任务管理跟踪器任务内存使用率的时间间隔 |
|
22 |
mapred.tasktracker.tasks.sleeptime-before-sigkill |
5000 |
发出进程终止后,间隔5秒后发出进程消亡信号 |
|
23 |
mapred.map.tasks |
2 |
每个作业缺省的map任务数为2 |
|
24 |
mapred.reduce.tasks |
1 |
每个作业缺省的reduce任务数为1 |
|
25 |
mapreduce.tasktracker.outofband.heartbeat |
false |
让在任务结束后发出一个额外的心跳信号 |
|
26 |
mapreduce.tasktracker.outofband.heartbeat.damper |
1000000 |
当额外心跳信号发出量太多时,则适当阻止 |
|
27 |
mapred.jobtracker.restart.recover |
false |
充许任务管理器恢复时采用的方式 |
|
28 |
mapred.jobtracker.job.history.block.size |
3145728 |
作业历史文件块的大小为3M |
|
29 |
mapreduce.job.split.metainfo.maxsize |
10000000 |
分隔元信息文件的最大值是10M以下 |
|
30 |
mapred.jobtracker.taskScheduler |
org.apache.hadoop.mapred.JobQueueTaskScheduler |
设定任务的执行计划实现类 |
|
31 |
mapred.jobtracker.taskScheduler.maxRunningTasksPerJob |
作业同时运行的任务数的最大值 |
|
|
32 |
mapred.map.max.attempts |
4 |
Map任务的重试次数 |
|
33 |
mapred.reduce.max.attempts |
4 |
Reduce任务的重试次数 |
|
34 |
mapred.reduce.parallel.copies |
5 |
在复制阶段时reduce并行传送的值。 |
|
35 |
mapreduce.reduce.shuffle.maxfetchfailures |
10 |
取map输出的最大重试次数 |
|
36 |
mapreduce.reduce.shuffle.connect.timeout |
180000 |
REDUCE任务连接任务管理器获得map输出时的总耗时是3分钟 |
|
37 |
mapreduce.reduce.shuffle.read.timeout |
180000 |
REDUCE任务等待map输出数据的总耗时是3分钟 |
|
38 |
mapred.task.timeout |
600000 |
如果任务无读无写时的时间耗时为10分钟,将被终止 |
|
39 |
mapred.tasktracker.map.tasks.maximum |
2 |
任管管理器可同时运行map任务数为2 |
|
40 |
mapred.tasktracker.reduce.tasks.maximum |
2 |
任管管理器可同时运行reduce任务数为2 |
|
41 |
mapred.jobtracker.completeuserjobs.maximum |
100 |
当用户的完成作业数达100个后,将其放入作业历史文件中 |
|
42 |
mapreduce.reduce.input.limit |
-1 |
Reduce输入量的限制。 |
|
43 |
mapred.job.tracker.retiredjobs.cache.size |
1000 |
作业状态为已不在执行的保留在内存中的量为1000 |
|
44 |
mapred.job.tracker.jobhistory.lru.cache.size |
5 |
作业历史文件装载到内存的数量 |
|
45 |
mapred.child.java.opts |
-Xmx200m |
启动task管理的子进程时的内存设置 |
|
46 |
mapred.child.env |
子进程的参数设置 |
|
|
47 |
mapred.child.ulimit |
虚拟机所需内存的设定。 |
|
|
48 |
mapred.cluster.map.memory.mb |
-1 |
|
|
49 |
mapred.cluster.reduce.memory.mb |
-1 |
|
|
50 |
mapred.cluster.max.map.memory.mb |
-1 |
|
|
51 |
mapred.cluster.max.reduce.memory.mb |
-1 |
|
|
52 |
mapred.job.map.memory.mb |
-1 |
|
|
53 |
mapred.job.reduce.memory.mb |
-1 |
|
|
54 |
mapred.child.tmp |
/tmp |
Mr任务信息的存放目录 |
|
55 |
mapred.inmem.merge.threshold |
1000 |
内存中的合并文件数设置 |
|
56 |
mapred.job.shuffle.merge.percent |
0.66 |
|
|
57 |
mapred.job.shuffle.input.buffer.percent |
0.70 |
|
|
58 |
mapred.job.reduce.input.buffer.percent |
0.0 |
|
|
59 |
mapred.map.tasks.speculative.execution |
true |
Map任务的多实例并行运行标识 |
|
60 |
mapred.reduce.tasks.speculative.execution |
true |
Reduce任务的多实例并行运行标识 |
|
61 |
mapred.job.reuse.jvm.num.tasks |
1 |
每虚拟机运行的任务数 |
|
62 |
mapred.min.split.size |
0 |
Map的输入数据被分解的块数设置 |
|
63 |
mapred.jobtracker.maxtasks.per.job |
-1 |
一个单独作业的任务数设置 |
|
64 |
mapred.submit.replication |
10 |
提交作业文件的复制级别 |
|
65 |
mapred.tasktracker.dns.interface |
default |
任务管理跟踪器是否报告IP地址名的开关 |
|
66 |
mapred.tasktracker.dns.nameserver |
default |
作业和任务管理跟踪器之间通讯方式采用的DNS服务的主机名或IP地址 |
|
67 |
tasktracker.http.threads |
40 |
http服务器的工作线程数量 |
|
68 |
mapred.task.tracker.http.address |
0.0.0.0:50060 |
任务管理跟踪器的http服务器的地址和端口 |
|
69 |
keep.failed.task.files |
false |
失败任务是否保存到文件中 |
|
70 |
mapred.output.compress |
false |
作业的输出是否压缩 |
|
71 |
mapred.output.compression.type |
RECORD |
作业输出采用NONE, RECORD or BLOCK三种方式中一种压缩的写入到流式文件 |
|
72 |
mapred.output.compression.codec |
org.apache.hadoop.io.compress.DefaultCodec |
压缩类的设置 |
|
73 |
mapred.compress.map.output |
false |
Map的输出是否压缩 |
|
74 |
mapred.map.output.compression.codec |
org.apache.hadoop.io.compress.DefaultCodec |
Map的输出压缩的实现类指定 |
|
75 |
map.sort.class |
org.apache.hadoop.util.QuickSort |
排序键的排序类指定 |
|
76 |
mapred.userlog.limit.kb |
0 |
每个任务的用户日志文件大小 |
|
77 |
mapred.userlog.retain.hours |
24 |
作业完成后的用户日志留存时间为24小时 |
|
78 |
mapred.user.jobconf.limit |
5242880 |
Jobconf的大小为5M |
|
79 |
mapred.hosts |
可与作业管理跟踪器连接的主机名 |
|
|
80 |
mapred.hosts.exclude |
不可与作业管理跟踪器连接的主机名 |
|
|
81 |
mapred.heartbeats.in.second |
100 |
作业管理跟踪器的每秒中到达的心跳数量为100 |
|
82 |
mapred.max.tracker.blacklists |
4 |
任务管理跟踪器的黑名单列表的数量 |
|
83 |
mapred.jobtracker.blacklist.fault-timeout-window |
180 |
任务管理跟踪器超时180分钟则訪任务将被重启 |
|
84 |
mapred.jobtracker.blacklist.fault-bucket-width |
15 |
|
|
85 |
mapred.max.tracker.failures |
4 |
任务管理跟踪器的失败任务数设定 |
|
86 |
jobclient.output.filter |
FAILED |
控制任务的用户日志输出到作业端时的过滤方式 |
|
87 |
mapred.job.tracker.persist.jobstatus.active |
false |
是否持久化作业管理跟踪器的信息 |
|
88 |
mapred.job.tracker.persist.jobstatus.hours |
0 |
持久化作业管理跟踪器的信息的保存时间 |
|
89 |
mapred.job.tracker.persist.jobstatus.dir |
/jobtracker/jobsInfo |
作业管理跟踪器的信息存放目录 |
|
90 |
mapreduce.job.complete.cancel.delegation.tokens |
true |
恢复时是否变更领牌 |
|
91 |
mapred.task.profile |
false |
任务分析信息是否建设标志 |
|
92 |
mapred.task.profile.maps |
0-2 |
设置map任务的分析范围 |
|
93 |
mapred.task.profile.reduces |
0-2 |
设置reduce任务的分析范围 |
|
94 |
mapred.line.input.format.linespermap |
1 |
每次切分的行数设置 |
|
95 |
mapred.skip.attempts.to.start.skipping |
2 |
在跳转模式未被设定的情况下任务的重试次数 |
|
96 |
mapred.skip.map.auto.incr.proc.count |
true |
MapRunner在调用map功能后的增量处理方式设置 |
|
97 |
mapred.skip.reduce.auto.incr.proc.count |
true |
在调用reduce功能后的增量处理方式设置 |
|
98 |
mapred.skip.out.dir |
跳过记录的输出目录 |
|
|
99 |
mapred.skip.map.max.skip.records |
0 |
|
|
100 |
mapred.skip.reduce.max.skip.groups |
0 |
|
|
101 |
job.end.retry.attempts |
0 |
Hadoop偿试连接通知器的次数 |
|
102 |
job.end.retry.interval |
30000 |
通知偿试回应的间隔操作为30秒 |
|
103 |
hadoop.rpc.socket.factory.class.JobSubmissionProtocol |
指定与作业跟踪管理器的通讯方式,缺省是采用rpc方式 |
|
|
104 |
mapred.task.cache.levels |
2 |
任务缓存级别设置 |
|
105 |
mapred.queue.names |
default |
分隔作业队例的分隔符设定 |
|
106 |
mapred.acls.enabled |
false |
指定ACL访问控制列表 |
|
107 |
mapred.queue.default.state |
RUNNING |
定义队列的状态 |
|
108 |
mapred.job.queue.name |
default |
已提交作业的队列设定 |
|
109 |
mapreduce.job.acl-modify-job |
指定可修改作业的ACL列表 |
|
|
110 |
mapreduce.job.acl-view-job |
指定可浏临作业的ACL列表 |
|
|
111 |
mapred.tasktracker.indexcache.mb |
10 |
任务管理跟踪器的索引内存的最大容器 |
|
112 |
mapred.combine.recordsBeforeProgress |
10000 |
在聚合处理时的记录块数 |
|
113 |
mapred.merge.recordsBeforeProgress |
10000 |
在汇总处理时的记录块数 |
|
114 |
mapred.reduce.slowstart.completed.maps |
0.05 |
|
|
115 |
mapred.task.tracker.task-controller |
org.apache.hadoop.mapred.DefaultTaskController |
任务管理器的设定 |
|
116 |
mapreduce.tasktracker.group |
任务管理器的组成员设定 |
|
|
117 |
mapred.healthChecker.script.path |
脚本的绝对路径指定,这些脚本是心跳服务的 |
|
|
118 |
mapred.healthChecker.interval |
60000 |
节点心跳信息的间隔 |
|
119 |
mapred.healthChecker.script.timeout |
600000 |
|
|
120 |
mapred.healthChecker.script.args |
参数列表 |
|
|
121 |
mapreduce.job.counters.limit |
120 |
作业计数器的最小值 |
hadoop配置文件的参数含义说明的更多相关文章
- (转)hadoop三个配置文件的参数含义说明
hadoop三个配置文件的参数含义说明 1 获取默认配置 配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三个配 ...
- hadoop三个配置文件的参数含义说明core-site.xml,hdfs-site.xml,mapred-site.xml
配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三个配置文件,默认下来,这些配置文件都是空的,所以很难知道这些配置文件有哪些配置可以生 ...
- hadoop三个配置文件的参数含义说明
1 获取默认配置 配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三个配置文件,默认下来,这些配置文件都是空的,所以很难知 ...
- hadoop三个配置文件的参数含义说明(转)
来自:http://blog.csdn.net/yangjl38/article/details/7583374 1 获取默认配置 配置hadoop,主要是配置core-site.xml, ...
- AngularCLI介绍及配置文件主要参数含义解析
使用Angular CLI可以快速,简单的搭建一个angular2或angular4项目,是只要掌握几行命令就能构建出前端架构的最佳实践,它本质也是使用了webpack来编译,打包,压缩等构建的事情, ...
- Hadoop集群参数和常用端口
一.Hadoop集群参数配置 在hadoop集群中,需要配置的文件主要包括四个,分别是core-site.xml.hdfs-site.xml.mapred-site.xml和yarn-site.xml ...
- Hadoop学习(二) Hadoop配置文件参数详解
Hadoop运行模式分为安全模式和非安全模式,在这里,我将讲述非安全模式下,主要配置文件的重要参数功能及作用,本文所使用的Hadoop版本为2.6.4. etc/hadoop/core-site.xm ...
- Hadoop配置文件解析
Hadoop源码解析 2 --- Hadoop配置文件解析 1 Hadoop Configuration简介 Hadoop没有使用java.util.Properties管理配置文件, 也没有使 ...
- hadoop java VM 参数设置 默认native栈大小设置
问题总结: 程序栈太小,64位机器的栈大小默认比32位的大,将程序从64放到32中执行则报错,需要修改初始堆栈大小 (.so库中提供两个函数接口,一个里面使用的是尺寸较大的图像,另一个处理的图像很小, ...
随机推荐
- sed 给文件每行末尾追加相同字符
给文件file1每行末尾追加字符 ; sed 's/$/;/' file1
- tyvj1172自然数拆分
题目:http://www.joyoi.cn/problem/tyvj-1172 非常水的完全背包.物品就是1~n这n个数. 第6行有橙色的警告:this decimal constant is un ...
- Jsp Cookie
cookie它是用户访问Web服务器时,服务器在用户硬盘上存放的信息. 1.使用Servlet实现cookie @WebServlet("/CookieServlet") publ ...
- 【jmeter】jmeter之-聚合点
集合点:简单来理解一下,虽然我们的“性能测试”理解为“多用户并发测试”,但真正的并发是不存在的,为了更真实的实现并发这感念,我们可以在需要压力的地方设置集合点, 还拿那个用户和密码的地方,每到输入用户 ...
- 使用纯生js操作cookie
前段时间做项目的时候要使用js操作cookie,jquery也有相应的插件,不过还是觉得纯生的js比较好,毕竟不依赖jq. //获得coolie 的值 function cookie(name) { ...
- 2018-2019学年第一学期Java课设--魔塔
目录 Magic-Towers 一.团队名称.团队成员介绍.任务分配 团队名称:MoTa 团队成员介绍 任务分配 二.项目简介 三.项目采用技术 四.项目亮点 主界面显示主要信息功能 游戏动画 五.项 ...
- Javascript中的闭包(六)
一.什么是闭包 函数可以记住并访问所在词法作用域时,就产生了闭包,即使在词法作用域外调用函数. (也就是说如果一个函数在执行完之后,其中的内部包含的函数仍然对该函数的作用域持有着引用(函数执行完 ...
- spring boot学习(3) SpringBoot 之MVC 支持
第一节:@RequestMapping 配置url 映射 第二节:@Controller 处理http 请求 转发到一个页面,以前是转发到jsp页面,现在使用freemarker: 在pom.xm ...
- 杂项:flex (adobe flex)
ylbtech-杂项:Flex (Adobe Flex) Flex指Adobe Flex,基于其专有的Macromedia Flash平台,它是涵盖了支持RIA(Rich Internet Appli ...
- 学习笔记之FluentAssertions
dotnet/src/MoqSample at master · haotang923/dotnet · GitHub https://github.com/htanghtang/dotnet/tre ...