hadoop
--------------
分布式计算框架。

common //
hdfs //存储
mapreduce //MR,编程模型.
yarn //资源调度.

集群部署
-----------
1.standard alone/local
nothing.
2.伪分布式
一台机器.
NN //目录
DN //DataNode,block(128M)
//
RM
NM
2NN
3.
4.
5.

jar

项目管理
--------------------
pom.xml
artifact //

安装maven
----------------
项目管理软件。
软件之间的依赖关系。
${user_hoime}/.m2
[windows]
1.加压即可
不要放中文或空格目录。
2.配置环境变量.
M2_HOME=c:\myprograme\apache-maven-3.3.9
PATH=...;%M2_HOME%\bin

3.验证是否安装成功
cmd>mvn -v

4.修改默认的仓库位置
[${maven_home}/conf/setttings.xml]
<settings ...>
...
<localRepository>e:/repo</localRepository>
...
</settings>

5.配置idea使用指定settings.xml文件.

[Centos]
1.tar开文件
/soft/apache-maven-3.3.9
/soft/maven --> maven-3.3.9
2.配置环境
[/etc/profile]
M2_HOME=/soft/maven
PATH=$PATH:$M2_HOME/bin

3.验证是否成功
$>mvn -v

安转idea
-----------------
1.右键点击ideaIU-2016.3.2.exe文件,选择管理员身份运行.
2.打开idea.
3.
4.
5.

依赖
-------------
<dependency>
<!-- 组id,解析成目录org/apache/hadoop/hadoop-hdfs/2.7.3 -->
<groupId>org.apache.hadoop</groupId>
<!-- 工件id -->
<artifactId>hadoop-hdfs</artifactId>
<!-- 版本 -->
<version>2.7.3</version>
</dependency>

eclipse idea
--------------------------
工作空间 项目
项目 模块

hadoop
--------------
http://s201:50070/

1073742863 == 134217728
1073742864 == 79874467

hdfs常见操作
-------------------
1.查看hdfs帮助
$>hdfs
2.hdfs dfs

3.hdfs

配置hadoop的最小blocksize,必须是512的倍数。
-------------------------------------------
[hdfs-site.xml]
dfs.namenode.fs-limits.min-block-size=1024
write,进行校验,512进行一次教研。

单独配置辅助名称节点
---------------------
[hdfs-site.xml]
dfs.namenode.secondary.http-address=s126:50090

使用oiv命令查询hadoop镜像文件
------------------------------
hdfs oiv -i fsimage -o a.xml -p XML //查看镜像文件。

hdfs dfsadmin管理命令
----------------------
$>hdfs dfsadmin //查看帮助
$>hdfs dfsadmin -help rollEdits //查看指定命令的帮助
$>hdfs dfsadmin -rollEdits //滚动编辑日志

启动hdfs时,镜像文件编辑日志进行融合,编辑日志滚动。

查看hdfs是否在安全模式
------------------------
$>hdfs dfsadmin -safemode enter //进入
$>hdfs dfsadmin -safemode get //查看
$>hdfs dfsadmin -safemode leave //退出
$>hdfs dfsadmin -safemode wait //等待

hadoop
--------------------
$>hadoop fs //hdfs dfs
$>hadoop checknative //检查压缩库本地安装情况
$>hadoop namenode -format //格式化名称

hdfs管理命令
--------------------
hdfs dfsadmin //

保存名字空间,需要进入安全模式
--------------------------------
$>hdfs dfsamdin -saveNamespace

hadoop启动命令
------------------
$>start-all.sh //start-dfs.sh + start-yarn.sh
$>start-dfs.sh //hadoop-daemon.sh start namenode
//hadoop-daemons.sh start datanode
$>start-yarn.sh //yarn-daemon.sh start resourcemanager
//yarn-daemons.sh start nodemanager

配额管理(quota)
-------------------
[目录配额]
计算目录下的所有文件的总个数。如果1,表示空目录。
$>hdfs dfsadmin -setQuota 1 dir1 dir2 //设置目录配额
$>hdfs dfsadmin -clrQuota 1 dir1 dir2 //清除配额管理

[空间配额]
计算目录下的所有文件的总大小.包括副本数.
空间配置至少消耗384M的空间大小(目录本身会占用384M的空间)。
$>hdfs dfsadmin -setSpaceQuota 3 data
$>echo -n a > k.txt
$>hdfs dfs -put k.txt data2
$>hdfs dfsadmin -clrSpaceQuota dir1 //清除配额管理

快照管理
--------------------
1.描述
迅速对文件(夹)进行备份。不产生新文件,使用差值存储。
默认是禁用快照,先启用。
2.命令
$>hdfs dfsadmin -allowSnapShot dir1 //在dir1启用快照
$>hdfs dfsadmin -disallowSnapShot dir1 //在dir1启用快照
$>hdfs dfs -createSnapshot dir ss1 //创建快照
$>hdfs dfs -renameSnapshot dir ss1 ss2 //重命名
$>hdfs dfs -deleteSnapshot dir ss1 //删除快照

slaves

黑白名单的组合情况
-------------------------
include //dfs.include
exclude //dfs.hosts.include

include exclude Interpretation
No No 不能连接
No Yes 不能连接
Yes No 可以连接
Yes Yes 可以连接,将会退役状态。

节点的服役和退役(hdfs)
----------------------
[添加新节点]
1.在dfs.include文件中包含新节点名称,该文件在nn的本地目录。
[白名单]
[s201:/soft/hadoop/etc/dfs.include.txt]
s202
s203
s204
s205
2.在hdfs-site.xml文件中添加属性.
<property>
<name>dfs.hosts</name>
<value>/soft/hadoop/etc/dfs.include.txt</value>
</property>

3.在nn上刷新节点
$>hdfs dfsadmin -refreshNodes

4.在slaves文件中添加新节点ip(主机名)
s202
s203
s204
s205 //新添加的

5.单独启动新的节点中的datanode
[s205]
$>hadoop-daemon.sh start datanode

[退役]
1.添加退役节点的ip到黑名单,不要更新白名单.
[/soft/hadoop/etc/dfs.hosts.exclude.txt]
s205

2.配置hdfs-site.xml
<property>
<name>dfs.hosts.exclude</name>
<value>/soft/hadoop/etc/dfs.hosts.exclude.txt</value>
</property>

3.刷新nn节点
$>hdfs dfsadmin -refreshNodes

4.查看webui,节点状态在decommisstion in progress.

5.当所有的要退役的节点都报告为Decommissioned,数据转移工作已经完成。

6.从白名单删除节点,并刷新节点
[s201:/soft/hadoop/etc/dfs.include.txt]
...

$>hdfs dfsadmin -refreshNodes

7.从slaves文件中删除退役节点

节点的服役和退役(yarn)
----------------------
[添加新节点]
1.在dfs.include文件中包含新节点名称,该文件在nn的本地目录。
[白名单]
[s201:/soft/hadoop/etc/dfs.include.txt]
s202
s203
s204
s205
2.在yarn-site.xml文件中添加属性.
<property>
<name>yarn.resourcemanager.nodes.include-path</name>
<value>/soft/hadoop/etc/dfs.include.txt</value>
</property>

3.在nn上刷新节点
$>yarn rmadmin -refreshNodes

4.在slaves文件中添加新节点ip(主机名)
s202
s203
s204
s205 //新添加的

5.单独启动新的节点中的nodemananger
[s205]
$>yarn-daemon.sh start nodemananger

[退役]
1.添加退役节点的ip到黑名单,不要更新白名单.
[/soft/hadoop/etc/dfs.hosts.exclude.txt]
s205

2.配置yarn-site.xml
<property>
<name>yarn.resourcemanager.nodes.exclude-path</name>
<value>/soft/hadoop/etc/dfs.hosts.exclude.txt</value>
</property>

3.刷新rm节点
$>yarn rmadmin -refreshNodes

4.查看webui,节点状态在decommisstion in progress.

5.当所有的要退役的节点都报告为Decommissioned,数据转移工作已经完成。

6.从白名单删除节点,并刷新节点

$>yarn rmadmin -refreshNodes

7.从slaves文件中删除退役节点

安装rose
---------------
0.UML
统一建模语言。
画图。
use case //用例
class //
1.安装dtlite虚拟光驱
2.打开虚拟光驱.

hadoop 空间配置的更多相关文章

  1. hadoop(四):配置参数

    hadoop参数配置,主要是配置 core-site.xml,hdfs-site.xml,mapred-site.xml 三个配置文件,core-site.xml是全局配置,hdfs-site.xml ...

  2. 有关hadoop分布式配置详解

    linux配置ssh无密码登录 配置ssh无密码登录,先要安装openssh,如下: yum install openssh-clients 准备两台linux服务器或虚拟机,设置两台linux的ho ...

  3. CentOS 7 Hadoop安装配置

    前言:我使用了两台计算机进行集群的配置,如果是单机的话可能会出现部分问题.首先设置两台计算机的主机名 root 权限打开/etc/host文件 再设置hostname,root权限打开/etc/hos ...

  4. stl空间配置器线程安全问题补充

    摘要 在上一篇博客<STL空间配置器那点事>简单介绍了空间配置器的基本实现 两级空间配置器处理,一级相关细节问题,同时简单描述了STL各组件之间的关系以及设计到的设计模式等. 在最后,又关 ...

  5. [stl] SGI STL的空间配置器

    第一级空间配置器 第一级配置以malloc(), free(), realloc()等c函数执行实际的内存配置,释放.重配置操作,并实现出类似c++ new handler的机制.它不能直接使用c++ ...

  6. ubuntu下hadoop环境配置

    软件环境: 虚拟机:VMware Workstation 10 操作系统:ubuntu-12.04-desktop-amd64 JAVA版本:jdk-7u55-linux-x64 Hadoop版本:h ...

  7. hadoop mapred-queue-acls 配置(转)

    hadoop作业提交时可以指定相应的队列,例如:-Dmapred.job.queue.name=queue2通过对mapred-queue-acls.xml和mapred-site.xml配置可以对不 ...

  8. hadoop安装配置——伪分布模式

    1. 安装 这里以安装hadoop-0.20.2为例 先安装java,参考这个 去着下载hadoop 解压 2. 配置 修改环境变量 vim ~/.bashrc export HADOOP_HOME= ...

  9. STL源码分析读书笔记--第二章--空间配置器(allocator)

    声明:侯捷先生的STL源码剖析第二章个人感觉讲得蛮乱的,而且跟第三章有关,建议看完第三章再看第二章,网上有人上传了一篇读书笔记,觉得这个读书笔记的内容和编排还不错,我的这篇总结基本就延续了该读书笔记的 ...

随机推荐

  1. 【转】Python编程: 多个PDF文件合并以及网页上自动下载PDF文件

    1. 多个PDF文件合并1.1 需求描述有时候,我们下载了多个PDF文件, 但希望能把它们合并成一个PDF文件.例如:你下载的数个PDF文件资料或者电子发票,你可以使用python程序合并成一个PDF ...

  2. [XLua]热更新四部曲视频教程+示例源码

    基于Unity2017 xLua是由腾讯维护的一个开源项目,xLua为Unity. .Net. Mono等C#环境增加Lua脚本编程的能力,借助xLua,这些Lua代码可以方便的和C#相互调用.自20 ...

  3. iis网站搭建http访问的文件服务器

    1.首先打开Internet信息服务(IIS)管理器,选择新建网站,如果没有Internet信息服务(IIS)管理器,可以在控制面板添加,按照 控制面板\程序\程序和功能,点击 打开或关闭Window ...

  4. 【django学习】request.POST与request.POST.get两者主要区别

    本文链接:https://blog.csdn.net/xun527/article/details/87777576request.POST是用来接收前端传过来的数据 一.request.POST.g ...

  5. C3线性化

    https://zh.wikipedia.org/wiki/C3线性化 在计算机科学中,C3算法主要用于确定多重继承时,子类应该继承哪一个父类的方法,即方法解析顺序(Method Resolution ...

  6. centos下安装ffmpeg加上fdk-aac的支持

    本文参考自:https://blog.csdn.net/jklinux/article/details/72367829 安装包可以从这里下载https://download.csdn.net/dow ...

  7. kotlin单个文件及文件夹复制例子

    最近学习kotlin,把java中的单个文件及包含文件夹的文件 复制操作改写为kotlin的代码,主要熟悉kotlin文件操作以及递归调用操作方法 演示代码如下: package com.exam.f ...

  8. Tensorflow 循环神经网络 基本 RNN 和 LSTM 网络 拟合、预测sin曲线

    时序预测一直是比较重要的研究问题,在统计学中我们有各种的模型来解决时间序列问题,但是最近几年比较火的深度学习中也有能解决时序预测问题的方法,另外在深度学习领域中时序预测算法可以解决自然语言问题等. 在 ...

  9. sql 中 '' 与 null 的区别

    SELECT * from t_company where content = '' SELECT * from t_company where content is null update t_co ...

  10. 我是如何同时拿到阿里和腾讯offer的 【转载】

    前言 三月真是一个忙碌的季节,刚刚开学就需要准备各种面试和笔试(鄙视).幸运的是,在长达一个月的面试内推季之后,终于同时拿到了阿里和腾讯的offer,还是挺开心的.突而想起久未更新的博客,就冒昧学一学 ...