hadoop单机环境搭建
[在此处输入文章标题]
Hadoop单机搭建
1、 工具准备
1) Hadoop Linux安装包
2) VMware虚拟机
3) Java Linux安装包
4) Window 电脑一台
2、 开始配置
1) 启动Linux虚拟机,这里使用的是CentOS 6.7版本
2) 首先配置虚拟机网络环境
Ø 配置Windows网络环境
1、 打开VMware,编辑—虚拟网络编辑器
2、 修改子网IP为192.168.100.0
3、 继续修改子网详细配置
4、Windows网络环境配置完成
Ø 配置Linux网络环境
1、 配置Linux网络环境,这里使用CentOS6.7桌面,右键网络连接,编辑网络
2、 编辑网络
3、 edit,设置网卡
4、 Ipv4 Setting,Method选择Manual
5、 Add添加一个
输入
Address:192.168.100.101
Network:255.255.255.0
Gateway:192.168.100.1
DNS:119.29.29.29,182.254.116.116
6、 点击 Apply... 接下来设置Linux hosts文件
7、 右键Linux桌面,Open in Terminal
8、 Linux终端打开,输入 vim /etc/hosts
9、 打开hosts文件,添加记录 master 192.168.100.101
10、 保存退出,在终端输入 vim /etc/sysconfig/network
11、 修改network文件 HOSTNAME=master
12、 接下来,关闭Linux防火墙,并从自启项中取消启动
关闭防火墙命令:service iptables stop
取消自启/关闭自启:chkconfig iptables off
查看防火墙状态:service iptables status
查看防火墙的开机状态:chkconfig --list | grep iptables
13、 保存退出,Linux网络修改完成。输入 init 0 重启Linux
3) 接下来,安装jdk
a) 将jdk安装包拷贝到Linux /opt/soft 下(我这里用目录/opt/soft,可以选择其他任意目录)这里用的jdk为8u112版本
b) 输入命令 tar –zxvf jdk-8u112-linux-x64.tar.gz –C /opt/ 将jdk解压到opt目录下
c) *修改jdk解压后的目录为jdk
命令:cd /opt
mv jdk1.8.0_112/ jdk
d) 添加jdk路径到path路径中
命令:
vim /etc/profile.d/hadoop.sh
添加
JAVA_HOME=/opt/jdk
PATH=$PATH:$JAVA_HOME/bin
e) 保存退出,输入命令 source /etc/profile.d/hadoop.sh,使配饰生效
f) 输入 java –version 检验是否成功
4) 安装Hadoop
a) 将Hadoop安装包拷贝到 /opt/soft/ 下,我这里用的是2.6.4版本
b) 解压Hadoop安装包到/opt下, tar -zxvf hadoop-2.6.4.tar.gz -C /opt/
c) 修改解压后的目录名为hadoop
d) 添加Hadoop目录到path路径
命令:
vim /etc/profile.d/hadoop.sh
添加两行:
HADOOP_HOME=/opt/hadoop
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
e) 修改hadoop配置文件(配置文件目录 $HADOOP_HOME/etc/hadoop/)
i. 修改hadoop-env.sh文件 export JAVA_HOME=/opt/jdk
ii. 修改yarn-env.sh 文件 export JAVA_HOME=/opt/jdk
iii. 修改hdfs-site.xml文件
1. <configuration>
2. <property>
3. <name>dfs.namenode.name.dir</name>
4. <value>file:///opt/hadoop-repo/name</value>
5. </property>
6. <property>
7. <name>dfs.datanode.data.dir</name>
8. <value>file:///opt/hadoop-repo/data</value>
9. </property>
10. <property>
11. <name>dfs.namenode.checkpoint.dir</name>
12. <value>file:///opt/hadoop-repo/secondary</value>
13. </property>
14. <!-- secondaryName http地址 -->
15. <property>
16. <name>dfs.namenode.secondary.http-address</name>
17. <value>master:9001</value>
18. </property>
19. <!-- 数据备份数量-->
20. <property>
21. <name>dfs.replication</name>
22. <value>1</value>
23. </property>
24. <!-- 运行通过web访问hdfs-->
25. <property>
26. <name>dfs.webhdfs.enabled</name>
27. <value>true</value>
28. </property>
29. <!-- 剔除权限控制-->
30. <property>
31. <name>dfs.permissions</name>
32. <value>false</value>
33. </property>
34. </configuration>
iv. 修改core-site.xml文件
1. <configuration>
2. <property>
3. <name>fs.defaultFS</name>
4. <value>hdfs://master:9000</value>
5. </property>
6. <property>
7. <name>hadoop.tmp.dir</name>
8. <value>file:///opt/hadoop-repo/tmp</value>
9. </property>
10. </configuration>
v. 复制一份mapred-site.xml.template 文件并修改为mapred-site.xml,修改其内容
1. <configuration>
2. <property>
3. <name>mapreduce.framework.name</name>
4. <value>yarn</value>
5. </property>
6. <!-- 历史job的访问地址-->
7. <property>
8. <name>mapreduce.jobhistory.address</name>
9. <value>master:10020</value>
10. </property>
11. <!-- 历史job的访问web地址-->
12. <property>
13. <name>mapreduce.jobhistory.webapp.address</name>
14. <value>master:19888</value>
15. </property>
16. <property>
17. <name>mapreduce.map.log.level</name>
18. <value>INFO</value>
19. </property>
20. <property>
21. <name>mapreduce.reduce.log.level</name>
22. <value>INFO</value>
23. </property>
24. </configuration>
vi. 修改yarn-site.xml文件
1. <configuration>
2. <property>
3. <name>yarn.nodemanager.aux-services</name>
4. <value>mapreduce_shuffle</value>
5. </property>
6. <property>
7. <name>yarn.resourcemanager.hostname</name>
8. <value>master</value>
9. </property>
10. <property>
11. <name>yarn.resourcemanager.address</name>
12. <value>master:8032</value>
13. </property>
14. <property>
15. <name>yarn.resourcemanager.scheduler.address</name>
16. <value>master:8030</value>
17. </property>
18. <property>
19. <name>yarn.resourcemanager.resource-tracker.address</name>
20. <value>master:8031</value>
21. </property>
22. <property>
23. <name>yarn.resourcemanager.admin.address</name>
24. <value>master:8033</value>
25. </property>
26. <property>
27. <name>yarn.resourcemanager.webapp.address</name>
28. <value>master:8088</value>
29. </property>
30. <property>
31. <name>yarn.log-aggregation-enable</name>
32. <value>true</value>
33. </property>
34. </configuration>
f) 创建hadoop数据储存目录
i. NameNode 数据存放目录: /opt/hadoop-repo/name
ii. SecondaryNameNode 数据存放目录: /opt/hadoop-repo/secondary
iii. DataNode 数据存放目录: /opt/hadoop-repo/data
iv. 临时数据存放目录: /opt/hadoop-repo/tmp
5) 至此单机版hadoop配置完成
6) 单机版hadoop的测试
a) 格式化hadoop文件系统
hdfs namenode -format
b) 启动hadoop
start-all.sh
////
启动成功之后,通过java命令jps(java process status)会出现5个进程:
NameNode
SecondaryNameNode
DataNode
ResourceManager
NodeManager
c) 验证
在浏览器中输入http://master:50070
欢迎来访 http://zy107.cn
hadoop单机环境搭建的更多相关文章
- Hadoop —— 单机环境搭建
一.前置条件 Hadoop的运行依赖JDK,需要预先安装,安装步骤见: Linux下JDK的安装 二.配置免密登录 Hadoop组件之间需要基于SSH进行通讯. 2.1 配置映射 配置ip地址和主机名 ...
- 攻城狮在路上(陆)-- hadoop单机环境搭建(一)
一.环境说明: 操作系统:Centos6.5 Linux node1 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86 ...
- Hadoop单机环境搭建整体流程
1. Ubuntu环境安装和基本配置 本例程中在MAC上安装使用的虚拟机Ubuntu系统(64位,desktop): 基本配置 考虑到以后涉及到hadoop的应用便于权限的管理,特别地创建一个ha ...
- [转载] Hadoop和Hive单机环境搭建
转载自http://blog.csdn.net/yfkiss/article/details/7715476和http://blog.csdn.net/yfkiss/article/details/7 ...
- 【HADOOP】| 环境搭建:从零开始搭建hadoop大数据平台(单机/伪分布式)-下
因篇幅过长,故分为两节,上节主要说明hadoop运行环境和必须的基础软件,包括VMware虚拟机软件的说明安装.Xmanager5管理软件以及CentOS操作系统的安装和基本网络配置.具体请参看: [ ...
- Hadoop单机Hadoop测试环境搭建
Hadoop单机Hadoop测试环境搭建: 1. 安装jdk,并配置环境变量,配置ssh免密码登录 2. 下载安装包hadoop-2.7.3.tar.gz 3. 配置/etc/hosts 127.0. ...
- Hadoop之环境搭建
初学Hadoop之环境搭建 阅读目录 1.安装CentOS7 2.安装JDK1.7.0 3.安装Hadoop2.6.0 4.SSH无密码登陆 本文仅作为学习笔记,供大家初学Hadoop时学习参考. ...
- Hadoop生产环境搭建(含HA、Federation)
Hadoop生产环境搭建 1. 将安装包hadoop-2.x.x.tar.gz存放到某一目录下,并解压. 2. 修改解压后的目录中的文件夹etc/hadoop下的配置文件(若文件不存在,自己创建.) ...
- Hadoop 系列(四)—— Hadoop 开发环境搭建
一.前置条件 Hadoop 的运行依赖 JDK,需要预先安装,安装步骤见: Linux 下 JDK 的安装 二.配置免密登录 Hadoop 组件之间需要基于 SSH 进行通讯. 2.1 配置映射 配置 ...
随机推荐
- Android自学反思总结(下)
后来陆陆续续过了大半个月,导员给找了一个Udacity在线学习的Android开发教程,只有一个月的免费学习机会,因此很快开始了叫Sunshine的天气应用的开发,教学视频整体是采用先自己思考并填写某 ...
- MVC学习笔记3 - JsRender
许多发展平台减少代码和简化维护,使用模板和 HTML5 和 JavaScript 也不例外. JsRender 是一个 JavaScript 库使您可以一次定义一个样板文件结构,并使用它来动态地生成 ...
- JS的DOM操作及动画
JS的DOM操作DOM:Document Object ModelBOM:Bowers(浏览器) Object Model找到元素:var a=document.getElementById(&quo ...
- 微服务--webapi实现,脱离iis,脱离tomcat
前言 微服务,顾名思义就是微小的单一的服务程序,单一流程,单一发布,开发和部署都可独立: 这是我的理解: 但基于web的服务,不管是webservice还是webapi等类似的服务都需要基于iis或者 ...
- shell 处理 文件名本身带星号的情况
获取到的所有文件名放到数组中时必须加上引号,不然 for 循环时会被解析成通配符,或者使用 shell 字典,同样也需要引号. shell 字典示例 #!/bin/bash echo "sh ...
- 急速搭建SuperMap iCloudManager for Docker环境
大家好,SuperMap iCloudManager 是超图的 GIS 云管理系统,它是出色的云GIS平台的大管家. 它很简单,部署操作都很简单. 它很智能,可以实时监控 GIS 业务环境的 CPU ...
- 推荐virtualBox虚拟机及安装使用的注意事项
推荐选择virtualBox虚拟机 选择vbox是因为,本人觉得使用起来比VMware要方便. 简要说明: 本人自学前端开发,对于linux了解很少,直接上手真实的linux环境会很不适应,所以选择了 ...
- 老李分享:HTTP协议之请求和响应
老李分享:HTTP协议之请求和响应 HTTP请求头详解: GET http://www.foo.com/ HTTP/1.1 GET是请求方式,请求方式有GET/POST http://www.fo ...
- SpringBoot-SpringMvc的Interceptor拦截器配置
Interceptor拦截器实现对每一个用户请求处理前后的业务处理,比如我们需要对用户请求进行响应时间的记录,需要记录请求从开始到结束所耗的时间,这时我们就需要用到拦截器了 下面我们以记录请求处理时间 ...
- Redis基础学习(一)—Redis的安装
一.Redis的安装 1.在Linux环境下安装gcc环境 yum install gcc-c++ 2.解压缩Redis源码包 tar -zxf redis-3.0.0.tar.gz 3.编译 ...