1,文件结构
· bin:脚本和命令目录。
· etc:配置文件目录。
· sbin:命令目录,主要包含HDFS和YARN中各类服务的启动和关闭,依赖于bin中的脚本。
· share:各个模块编译后的jar包,和示例代码。
· libexec:各个服务的shell配置文件目录,比如配置日志输出目录、启动参数等。
· include:对外提供的头文件,由C++定义。
· lib:对外的动态库,与include 对应。
 
2,core-default.xml
··· hadoop的默认配置文件,位于./share/doc/hadoop/hadoop-project-dist/hadoop-common/core-default.xml
其他的配置文件也一样
 
3,core-site.xml
··· fs.defaultFS
    · 设置运行时的文件系统,默认是 [file:///] 即本地文件系统。
    · 对于分布式Hadoop必须设置为 HDFS,[hdfs://hadoop11:9000],hadoop11:9000为NameNode所在的主机和端口
··· hadoop.tmp.dir
    · hadoop的临时文件夹,一般为 [/opt/app/hadoop/data/tmp]。会保存hdfs的NameNode的信息和DataNode的数据
 
4,hdfs-site.xml
··· dfs.replication
    · hdfs的副本个数,默认为3。在伪分布式中要设置为1。
··· dfs.namenode.http-address
    · NameNode的web访问地址,即在浏览器上查看NameNode上的信息。一般为 [hadoop11:50070]
··· dfs.namenode.secondary.http-address
    · SecondaryNameNode的web访问地址。一般为 [hadoop33:50090]
··· dfs.permissions.enabled
    · HDFS的文件系统权限。一般设为 [false]
 
5,yarn-site.xml
··· yarn.resourcemanager.hostname
    · 设置RM主机的位置。一般为 [hadoop22]
··· yarn.nodemanager.aux-services
    · 一般为 [mapreduce_shuffle],通知NodeManager实现名为mapreduce.shuffle的辅助服务
··· yarn.log-aggregation-enable
    · 设置日志聚集属性,一般打开,设为 [true]
··· yarn.log-aggragation.retain-seconds
    · 设置日志聚集的时间,单位秒,一般为7天,设为 [604800]
 
6,mapred-site.xml
··· mapreduce.framework.name
    · MapReduce的计算框架,可以是 local、classic、yarn,一般设为 yarn,默认是local
··· mapreduce.jobhistory.address
    · 历史服务器的地址,一般设为 [hadoop33:10020]
··· mapreduce.jobhistory.webapp.address
    · 历史服务器的web访问地址,一般设为 [hadoop33:19888]
 
7,slaves
··· 设置从主机的主机名(不能有空格)
    · 当启动 hdfs时,会在配置的主机中启动 DataNode进程。
    · 当启动 yarn时,会在配置的主机中启动 NodeManager进程。

5,Hadoop中的文件的更多相关文章

  1. Hadoop中pid文件存储

    我的hadoop集群部署在自己电脑虚拟机上,有时候我是挂起虚拟机,第二天再打开发现有些线程就挂了,比如namenode,好奇怪,当时看了一些帖子说是和pid存储有关,找到log看到找不到pid.因为基 ...

  2. 转载: 查看HADOOP中一个文件有多少块组成及所在机器ip

    看文件信息 hadoop fsck /user/filename 更详细的 hadoop fsck /user/filename -files  -blocks -locations -racks   ...

  3. hadoop中发送文件的脚本

    多台主机执行相同的命令 [xcall] [/usr/local/bin] sudo nano xcall ----------------------------------------------- ...

  4. MapReduce计算之——hadoop中的Hello World

    1.  启动集群 2.  创建input路径(有关hadoop 的命令用 "hadoop fs"),input路径并不能在系统中查找到,可以使用 “hadoop fs -ls /” ...

  5. 浅谈hadoop中mapreduce的文件分发

    近期在做数据分析的时候.须要在mapreduce中调用c语言写的接口.此时就须要把动态链接库so文件分发到hadoop的各个节点上,原来想自己来做这个分发,大概过程就是把so文件放在hdfs上面,然后 ...

  6. 在本机eclipse中创建maven项目,查看linux中hadoop下的文件、在本机搭建hadoop环境

    注意 第一次建立maven项目时需要在联网情况下,因为他会自动下载一些东西,不然突然终止 需要手动删除断网前建立的文件 在eclipse里新建maven项目步骤 直接新建maven项目出了错      ...

  7. 直接使用FileSystem以标准输出格式显示hadoop文件系统中的文件

    package com.yoyosys.cebbank.bdap.service.mr; import java.io.IOException; import java.io.InputStream; ...

  8. hadoop中两种上传文件方式

    记录如何将本地文件上传至HDFS中 前提是已经启动了hadoop成功(nodedate都成功启动) ①先切换到HDFS用户 ②创建一个user件夹 bin/hdfs dfs -mkdir /user ...

  9. hadoop学习笔记(十):hdfs在命令行的基本操作命令(包括文件的上传和下载和hdfs中的文件的查看等)

    hdfs命令行 ()查看帮助 hdfs dfs -help ()查看当前目录信息 hdfs dfs -ls / ()上传文件 hdfs dfs -put /本地路径 /hdfs路径 ()剪切文件 hd ...

随机推荐

  1. Mac环境下pyCharm的安装,激活及使用

    1.pyCharm的安装 安装地址: https://www.jetbrains.com/pycharm/download/#section=mac 2.激活 获取注册码地址: http://idea ...

  2. Exchange Onine 公用文件夹

    公用文件夹专为共享访问设计,为收集.组织信息及工作组织中的其他人共享信息提供提供了一种轻松.有效的方式.公用文件夹帮助以易于浏览的层次结构来组织内容. 一.公用文件夹的适用环境 公用文件夹在以下out ...

  3. python_数据类型_总结

  4. Linux基础篇一:Linux历史

    记得有个GNU组织,里面有个GPL协议(通用版权许可协议),如果软件被打上GPL,那么任何人都可以对这个软件进行修改.

  5. 吴裕雄--天生自然 JAVA开发学习:多线程编程

    class RunnableDemo implements Runnable { private Thread t; private String threadName; RunnableDemo( ...

  6. vue实现tab选项卡切换

    上代码: <template>   <div class="push">     //点击按钮     <div class="tab&qu ...

  7. 微信小程序引用外部js

    1.先建立一个common.js, 写我们的外部js 比如: common.js function getTime(){ //下面写我们的代码 .... } function getCity(){ / ...

  8. iOS动画效果集合、 通过摄像头获取心率、仿淘宝滑动样式、瀑布流、分类切换布局等源码

    iOS精选源码 动画知识运用及常见动画效果收集 较为美观的多级展开列表 MUImageCache -简单轻量的图片缓存方案 iOS 瀑布流之栅格布局 一用就上瘾的JXCategoryView iOS ...

  9. python中读取mat文件

    mat数据格式是Matlab的数据存储的标准格式 在python中可以使用scipy.io中的函数loadmat()读取mat文件. import scipy.io as scio path = 'e ...

  10. [LC] 46. Permutations

    Given a collection of distinct integers, return all possible permutations. Example: Input: [1,2,3] O ...