[在此处输入文章标题]

Hadoop单机搭建

1、 工具准备

1) Hadoop Linux安装包

2) VMware虚拟机

3) Java Linux安装包

4) Window 电脑一台

2、 开始配置

1) 启动Linux虚拟机,这里使用的是CentOS 6.7版本

2) 首先配置虚拟机网络环境

Ø 配置Windows网络环境

1、 打开VMware,编辑—虚拟网络编辑器

2、 修改子网IP为192.168.100.0

3、 继续修改子网详细配置

4、Windows网络环境配置完成

Ø 配置Linux网络环境

1、 配置Linux网络环境,这里使用CentOS6.7桌面,右键网络连接,编辑网络

2、 编辑网络

3、 edit,设置网卡

4、 Ipv4 Setting,Method选择Manual

5、 Add添加一个

输入

Address:192.168.100.101

Network:255.255.255.0

Gateway:192.168.100.1

DNS:119.29.29.29,182.254.116.116

6、 点击 Apply... 接下来设置Linux hosts文件

7、 右键Linux桌面,Open in Terminal

8、 Linux终端打开,输入 vim /etc/hosts

9、 打开hosts文件,添加记录 master 192.168.100.101

10、 保存退出,在终端输入 vim /etc/sysconfig/network

11、 修改network文件 HOSTNAME=master

12、 接下来,关闭Linux防火墙,并从自启项中取消启动

关闭防火墙命令:service iptables stop

取消自启/关闭自启:chkconfig iptables off

查看防火墙状态:service iptables status

查看防火墙的开机状态:chkconfig --list | grep iptables

13、 保存退出,Linux网络修改完成。输入 init 0 重启Linux

3) 接下来,安装jdk

a) 将jdk安装包拷贝到Linux /opt/soft 下(我这里用目录/opt/soft,可以选择其他任意目录)这里用的jdk为8u112版本

b) 输入命令 tar –zxvf jdk-8u112-linux-x64.tar.gz –C /opt/ 将jdk解压到opt目录下

c) *修改jdk解压后的目录为jdk

命令:cd /opt

mv jdk1.8.0_112/ jdk

d) 添加jdk路径到path路径中

命令:

vim /etc/profile.d/hadoop.sh

添加

JAVA_HOME=/opt/jdk

PATH=$PATH:$JAVA_HOME/bin

e) 保存退出,输入命令 source /etc/profile.d/hadoop.sh,使配饰生效

f) 输入 java –version 检验是否成功

4) 安装Hadoop

a) 将Hadoop安装包拷贝到 /opt/soft/ 下,我这里用的是2.6.4版本

b) 解压Hadoop安装包到/opt下, tar -zxvf hadoop-2.6.4.tar.gz -C /opt/

c) 修改解压后的目录名为hadoop

d) 添加Hadoop目录到path路径

命令:

vim /etc/profile.d/hadoop.sh

添加两行:

HADOOP_HOME=/opt/hadoop

PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

e) 修改hadoop配置文件(配置文件目录 $HADOOP_HOME/etc/hadoop/)

i. 修改hadoop-env.sh文件 export JAVA_HOME=/opt/jdk

ii. 修改yarn-env.sh 文件 export JAVA_HOME=/opt/jdk

iii. 修改hdfs-site.xml文件

1. <configuration>

2. <property>

3. <name>dfs.namenode.name.dir</name>

4. <value>file:///opt/hadoop-repo/name</value>

5. </property>

6. <property>

7. <name>dfs.datanode.data.dir</name>

8. <value>file:///opt/hadoop-repo/data</value>

9. </property>

10. <property>

11. <name>dfs.namenode.checkpoint.dir</name>

12. <value>file:///opt/hadoop-repo/secondary</value>

13. </property>

14. <!-- secondaryName http地址 -->

15. <property>

16. <name>dfs.namenode.secondary.http-address</name>

17. <value>master:9001</value>

18. </property>

19. <!-- 数据备份数量-->

20. <property>

21. <name>dfs.replication</name>

22. <value>1</value>

23. </property>

24. <!-- 运行通过web访问hdfs-->

25. <property>

26. <name>dfs.webhdfs.enabled</name>

27. <value>true</value>

28. </property>

29. <!-- 剔除权限控制-->

30. <property>

31. <name>dfs.permissions</name>

32. <value>false</value>

33. </property>

34. </configuration>

iv. 修改core-site.xml文件

1. <configuration>

2. <property>

3. <name>fs.defaultFS</name>

4. <value>hdfs://master:9000</value>

5. </property>

6. <property>

7. <name>hadoop.tmp.dir</name>

8. <value>file:///opt/hadoop-repo/tmp</value>

9. </property>

10. </configuration>

v. 复制一份mapred-site.xml.template 文件并修改为mapred-site.xml,修改其内容

1. <configuration>

2. <property>

3. <name>mapreduce.framework.name</name>

4. <value>yarn</value>

5. </property>

6. <!-- 历史job的访问地址-->

7. <property>

8. <name>mapreduce.jobhistory.address</name>

9. <value>master:10020</value>

10. </property>

11. <!-- 历史job的访问web地址-->

12. <property>

13. <name>mapreduce.jobhistory.webapp.address</name>

14. <value>master:19888</value>

15. </property>

16. <property>

17. <name>mapreduce.map.log.level</name>

18. <value>INFO</value>

19. </property>

20. <property>

21. <name>mapreduce.reduce.log.level</name>

22. <value>INFO</value>

23. </property>

24. </configuration>

vi. 修改yarn-site.xml文件

1. <configuration>

2. <property>

3. <name>yarn.nodemanager.aux-services</name>

4. <value>mapreduce_shuffle</value>

5. </property>

6. <property>

7. <name>yarn.resourcemanager.hostname</name>

8. <value>master</value>

9. </property>

10. <property>

11. <name>yarn.resourcemanager.address</name>

12. <value>master:8032</value>

13. </property>

14. <property>

15. <name>yarn.resourcemanager.scheduler.address</name>

16. <value>master:8030</value>

17. </property>

18. <property>

19. <name>yarn.resourcemanager.resource-tracker.address</name>

20. <value>master:8031</value>

21. </property>

22. <property>

23. <name>yarn.resourcemanager.admin.address</name>

24. <value>master:8033</value>

25. </property>

26. <property>

27. <name>yarn.resourcemanager.webapp.address</name>

28. <value>master:8088</value>

29. </property>

30. <property>

31. <name>yarn.log-aggregation-enable</name>

32. <value>true</value>

33. </property>

34. </configuration>

f) 创建hadoop数据储存目录

i. NameNode 数据存放目录: /opt/hadoop-repo/name

ii. SecondaryNameNode 数据存放目录: /opt/hadoop-repo/secondary

iii. DataNode 数据存放目录: /opt/hadoop-repo/data

iv. 临时数据存放目录: /opt/hadoop-repo/tmp

5) 至此单机版hadoop配置完成

6) 单机版hadoop的测试

a) 格式化hadoop文件系统

hdfs namenode -format

b) 启动hadoop

start-all.sh

////

启动成功之后,通过java命令jps(java process status)会出现5个进程:

NameNode

SecondaryNameNode

DataNode

ResourceManager

NodeManager

c) 验证

在浏览器中输入http://master:50070

欢迎来访 http://zy107.cn

hadoop单机环境搭建的更多相关文章

  1. Hadoop —— 单机环境搭建

    一.前置条件 Hadoop的运行依赖JDK,需要预先安装,安装步骤见: Linux下JDK的安装 二.配置免密登录 Hadoop组件之间需要基于SSH进行通讯. 2.1 配置映射 配置ip地址和主机名 ...

  2. 攻城狮在路上(陆)-- hadoop单机环境搭建(一)

    一.环境说明:     操作系统:Centos6.5 Linux node1 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86 ...

  3. Hadoop单机环境搭建整体流程

    1.   Ubuntu环境安装和基本配置 本例程中在MAC上安装使用的虚拟机Ubuntu系统(64位,desktop): 基本配置 考虑到以后涉及到hadoop的应用便于权限的管理,特别地创建一个ha ...

  4. [转载] Hadoop和Hive单机环境搭建

    转载自http://blog.csdn.net/yfkiss/article/details/7715476和http://blog.csdn.net/yfkiss/article/details/7 ...

  5. 【HADOOP】| 环境搭建:从零开始搭建hadoop大数据平台(单机/伪分布式)-下

    因篇幅过长,故分为两节,上节主要说明hadoop运行环境和必须的基础软件,包括VMware虚拟机软件的说明安装.Xmanager5管理软件以及CentOS操作系统的安装和基本网络配置.具体请参看: [ ...

  6. Hadoop单机Hadoop测试环境搭建

    Hadoop单机Hadoop测试环境搭建: 1. 安装jdk,并配置环境变量,配置ssh免密码登录 2. 下载安装包hadoop-2.7.3.tar.gz 3. 配置/etc/hosts 127.0. ...

  7. Hadoop之环境搭建

    初学Hadoop之环境搭建   阅读目录 1.安装CentOS7 2.安装JDK1.7.0 3.安装Hadoop2.6.0 4.SSH无密码登陆 本文仅作为学习笔记,供大家初学Hadoop时学习参考. ...

  8. Hadoop生产环境搭建(含HA、Federation)

    Hadoop生产环境搭建 1. 将安装包hadoop-2.x.x.tar.gz存放到某一目录下,并解压. 2. 修改解压后的目录中的文件夹etc/hadoop下的配置文件(若文件不存在,自己创建.) ...

  9. Hadoop 系列(四)—— Hadoop 开发环境搭建

    一.前置条件 Hadoop 的运行依赖 JDK,需要预先安装,安装步骤见: Linux 下 JDK 的安装 二.配置免密登录 Hadoop 组件之间需要基于 SSH 进行通讯. 2.1 配置映射 配置 ...

随机推荐

  1. Office 365 开发概览系列文章和教程

    Office 365 开发概览系列文章和教程 原文于2017年2月26日首发于LinkedIn,请参考链接 引子 之前我在Office 365技术社群(O萌)中跟大家提到,3月初适逢Visual St ...

  2. Android7.0 Phone应用源码分析(四) phone挂断流程分析

    电话挂断分为本地挂断和远程挂断,下面我们就针对这两种情况各做分析 先来看下本地挂断电话的时序图: 步骤1:点击通话界面的挂断按钮,会调用到CallCardPresenter的endCallClicke ...

  3. 一切app源于生活 用于生活 一个利于生活的app——利生活

    现在的app软件可以说 各行各业都基本达到饱和阶段 因为智能手机时代让我们的世界缩小了十倍百倍甚至千倍,我们可以足不出户知天下可以足不出户的去购物. 既然app利于生活 那么今天我所要开发的一个app ...

  4. HBuilder的webview操作

    HBuilder的webview操作 webviewAPI文档:http://www.html5plus.org/doc/zh_cn/webview.html 创建新的webview窗口: Webvi ...

  5. 用Stax方式处理xml

    1.读取xml文件,首先用类加载器加载项目目录下的xml文件,从XMLInputFactory创建我所需要的XMLStreamReader,即得到了xml文件.根据XMLStreamConstant ...

  6. keepalive配置文件详解

    第一部分:全局定义块 1.email通知.作用:有故障,发邮件报警. 2.Lvs负载均衡器标识(lvs_id).在一个网络内,它应该是唯一的. 3.花括号“{}”.用来分隔定义块,因此必须成对出现.如 ...

  7. iOS 应用关于弥补安全优化问题

    1.log输出会被中奖者截获,暴露信息,影响app得性能 在工程里面的pch文件加入以下代码 // 调试状态 #define LMLog(...) NSLog(__VA_ARGS__) #else / ...

  8. 随机跳转页面之使用VBA公共变量

    p{ font-size: 15px; } .alexrootdiv>div{ background: #eeeeee; border: 1px solid #aaa; width: 99%; ...

  9. Windows下检测文件名大小写是否匹配

    跨平台开发有一个众所周知,但因为只是偶尔受到困扰,一般人不会在意的问题,就是windows对文件名大小写不敏感,而其他平台对文件名大小写敏感.因此可能出现在windows平台开发时一切正常,但部署/打 ...

  10. robotium问答

    robotium问答   robotium集成instrumentation robotium如何定位控件? search类获取当前所有的view,然后根据类型或者文本去筛选,找到view后获取坐标, ...