1,文件结构
· bin:脚本和命令目录。
· etc:配置文件目录。
· sbin:命令目录,主要包含HDFS和YARN中各类服务的启动和关闭,依赖于bin中的脚本。
· share:各个模块编译后的jar包,和示例代码。
· libexec:各个服务的shell配置文件目录,比如配置日志输出目录、启动参数等。
· include:对外提供的头文件,由C++定义。
· lib:对外的动态库,与include 对应。
 
2,core-default.xml
··· hadoop的默认配置文件,位于./share/doc/hadoop/hadoop-project-dist/hadoop-common/core-default.xml
其他的配置文件也一样
 
3,core-site.xml
··· fs.defaultFS
    · 设置运行时的文件系统,默认是 [file:///] 即本地文件系统。
    · 对于分布式Hadoop必须设置为 HDFS,[hdfs://hadoop11:9000],hadoop11:9000为NameNode所在的主机和端口
··· hadoop.tmp.dir
    · hadoop的临时文件夹,一般为 [/opt/app/hadoop/data/tmp]。会保存hdfs的NameNode的信息和DataNode的数据
 
4,hdfs-site.xml
··· dfs.replication
    · hdfs的副本个数,默认为3。在伪分布式中要设置为1。
··· dfs.namenode.http-address
    · NameNode的web访问地址,即在浏览器上查看NameNode上的信息。一般为 [hadoop11:50070]
··· dfs.namenode.secondary.http-address
    · SecondaryNameNode的web访问地址。一般为 [hadoop33:50090]
··· dfs.permissions.enabled
    · HDFS的文件系统权限。一般设为 [false]
 
5,yarn-site.xml
··· yarn.resourcemanager.hostname
    · 设置RM主机的位置。一般为 [hadoop22]
··· yarn.nodemanager.aux-services
    · 一般为 [mapreduce_shuffle],通知NodeManager实现名为mapreduce.shuffle的辅助服务
··· yarn.log-aggregation-enable
    · 设置日志聚集属性,一般打开,设为 [true]
··· yarn.log-aggragation.retain-seconds
    · 设置日志聚集的时间,单位秒,一般为7天,设为 [604800]
 
6,mapred-site.xml
··· mapreduce.framework.name
    · MapReduce的计算框架,可以是 local、classic、yarn,一般设为 yarn,默认是local
··· mapreduce.jobhistory.address
    · 历史服务器的地址,一般设为 [hadoop33:10020]
··· mapreduce.jobhistory.webapp.address
    · 历史服务器的web访问地址,一般设为 [hadoop33:19888]
 
7,slaves
··· 设置从主机的主机名(不能有空格)
    · 当启动 hdfs时,会在配置的主机中启动 DataNode进程。
    · 当启动 yarn时,会在配置的主机中启动 NodeManager进程。

5,Hadoop中的文件的更多相关文章

  1. Hadoop中pid文件存储

    我的hadoop集群部署在自己电脑虚拟机上,有时候我是挂起虚拟机,第二天再打开发现有些线程就挂了,比如namenode,好奇怪,当时看了一些帖子说是和pid存储有关,找到log看到找不到pid.因为基 ...

  2. 转载: 查看HADOOP中一个文件有多少块组成及所在机器ip

    看文件信息 hadoop fsck /user/filename 更详细的 hadoop fsck /user/filename -files  -blocks -locations -racks   ...

  3. hadoop中发送文件的脚本

    多台主机执行相同的命令 [xcall] [/usr/local/bin] sudo nano xcall ----------------------------------------------- ...

  4. MapReduce计算之——hadoop中的Hello World

    1.  启动集群 2.  创建input路径(有关hadoop 的命令用 "hadoop fs"),input路径并不能在系统中查找到,可以使用 “hadoop fs -ls /” ...

  5. 浅谈hadoop中mapreduce的文件分发

    近期在做数据分析的时候.须要在mapreduce中调用c语言写的接口.此时就须要把动态链接库so文件分发到hadoop的各个节点上,原来想自己来做这个分发,大概过程就是把so文件放在hdfs上面,然后 ...

  6. 在本机eclipse中创建maven项目,查看linux中hadoop下的文件、在本机搭建hadoop环境

    注意 第一次建立maven项目时需要在联网情况下,因为他会自动下载一些东西,不然突然终止 需要手动删除断网前建立的文件 在eclipse里新建maven项目步骤 直接新建maven项目出了错      ...

  7. 直接使用FileSystem以标准输出格式显示hadoop文件系统中的文件

    package com.yoyosys.cebbank.bdap.service.mr; import java.io.IOException; import java.io.InputStream; ...

  8. hadoop中两种上传文件方式

    记录如何将本地文件上传至HDFS中 前提是已经启动了hadoop成功(nodedate都成功启动) ①先切换到HDFS用户 ②创建一个user件夹 bin/hdfs dfs -mkdir /user ...

  9. hadoop学习笔记(十):hdfs在命令行的基本操作命令(包括文件的上传和下载和hdfs中的文件的查看等)

    hdfs命令行 ()查看帮助 hdfs dfs -help ()查看当前目录信息 hdfs dfs -ls / ()上传文件 hdfs dfs -put /本地路径 /hdfs路径 ()剪切文件 hd ...

随机推荐

  1. redis day03

    模拟缓存 django-admin startproject rmysite3   创建django项目 python3 manage.py startapp user     创建py应用 33 行 ...

  2. 【更新中】Hotspot tracer

    Hotspot Follower 闲着没事,打算做一个爬取社会热点的项目,首先通过微信搜狗进行分析. 代码基于PYTHON import requests import json def page(s ...

  3. DjangoBlog部署教程

    本篇文章将会手把手教你如何部署DjangoBlog项目,首先介绍下我这里的基本环境,请大家仔细阅读此部分,下面的教程都会使用这些约定来介绍: 系统是ubuntu 18.04 LTS 假设你的域名是ww ...

  4. locate及find查找命令

    在文件系统上查找符合条件的文件:       实现工具:locate,find locate:       依赖于事先构建好的索引库:       系统自动实现(周期性任务):       手动更新数 ...

  5. H5的localStorage使用总结

    一.localstorage 的优缺点 优点: 1.localStorage 的存储大小是5M,而cookie的存储大小只有4K,解决了cookie存储空间不足的问题 2.localStorage 可 ...

  6. django项目总结_20191128

    django项目总结_20191128 ##################### 1,这个项目分为四个部分: 用户模块 商品模块 购物车模块 订单模块 2,这个项目用到的技术: redis cele ...

  7. Java IO: 序列化与ObjectInputStream、ObjectOutputStream

    作者:Jakob Jenkov  译者: 李璟(jlee381344197@gmail.com) 本小节会简要概括Java IO中的序列化以及涉及到的流,主要包括ObjectInputStream和O ...

  8. AD复制问题汇总

    1:文件复制服务NtFrs 13568报错的解决方法 解决方法: 建议不要按照日志的提示进行操作,正确的操作应该是 出现这个问题的原因,是由于在硬件的损坏,导致服务器未正确处理NTFS USN 日志. ...

  9. org.apache.http.NoHttpResponseException

    org.apache.http.NoHttpResponseException 异常: org.apache.http.NoHttpResponseException: The target serv ...

  10. 升级mongodb数据库2.6.6到3.0.3,切换引擎,主从同步数据

    只升级mongodb的版本极为简单,更新/替换 bin/目录下的可执行文件即可. debian和osx上的升级,按步骤来,没什么好说的. http://docs.mongodb.org/manual/ ...