【安装】Hadoop2.8.0搭建过程整理版
Hadoop搭建过程
前期环境搭建主要分为软件的安装与配置文件的配置,集成的东西越多,配置项也就越复杂。
Hadoop集成了一个动物园,所以配置项也比较多,且每个版本之间会有少许差异。
安装的方式有很多,各个版本lunix源的配置也不同,我才用的是直接下载tar包进行安装,这样的好处是版本容易控制。
下载软件:
官网下载时会标明相匹配的版本:
1、hadoop本体2.8.0
2、Scala,spark的原生语言,依赖于此环境
3、Spark,spark依赖hadoop的组件(忘了,单跑也可以)
系统环境:Ubuntu16.04
JRE环境:1.8(e)
配置jRE环境变量:
vim /etc/profile
最后加上,:是拼接的意思,拼接到path
export JAVA_HOME=/usr/jdk8/jdk1.8.0_144
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$JAVA_HOME/bin:$PATH
Java -version 成功
1、修改主机名
修改主机名,配置host,设置静态ip:
1.修改主机名:
主节点主机名称:Hadoop-host,IP地址:192.168.1.200
//由于搭建standalone测试,暂未配置子节点
Host:
修改/etc/host、hostname文件,注意请在host文件中一并添加hadoopnode1机器的IP地址。
192.168.1.200 Hadoop-host //192.168.1.201 hadoopnode1
::1 localhost
立即生效:sudo /etc/init.d/networking restart
Ip设置(e):
#sudo vim /etc/network/interfaces
auto eth0
iface eth0 inet static
address 192.168.0.117
gateway 192.168.0.1 #这个地址你要确认下网关是不是这个地址
netmask 255.255.255.0
network 192.168.0.0
broadcast 192.168.0.255
dns-nameservers 8.8.8.8
2、关闭防火墙
原因:内部系统,不用考虑安全问题;各个节点之间的配合需要开放的环境。
乌班图ufw disable
其它版本的lunix好像是配置iptable关闭
配置免密码登录:公钥私钥。
ssh-keygen -t rsa -P “”
实现本地登录免密码登录,因为搭建的时候,我们做了对其他主机的免密码登录,但是本地ssh连接本地没有
所以,讲本地的公钥导入私钥就可以
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
非本地节点将非本地公钥导入私钥?
3、安装Hadoop
Tar -xvf 安装包名
Tip:解压x压缩z
解压后放入/usr/local/hadoop文件夹下。
创建hdfs以及其他组件需要的文件夹:
#mkdir tmp hadoop临时文件
#mkdir hdfs/name hdfsNODE
#mkdir hdfs/data hdfsDATA
配置环境变量:
vim /etc/profile
加入:
export HADOOP_HOME=/usr/hadoop/hadoop-2.8.0
export PATH=$PATH:$HADOOP_HOME/bin
Source,立即生效
现在执行hadoop version
查看安装是否成功。
4、配置Hadoop
主要是几个配置文件:
A:hadoop-2.8.0/etc/hadoop/hadoop-env.sh
配置vim hadoop-env.sh文件 添加JAVA_HOME位置
source立即生效
B:hadoop-2.8.0/etc/hadoop/yarn-env.sh -此版本没有
C:hadoop-2.8.0/etc/hadoop/core-site.xml
D:hadoop-2.8.0/etc/hadoop/hdfs-site.xml
E:hadoop-2.8.0/etc/hadoop/mapred-site.xml
F:hadoop-2.8.0/etc/hadoop/yarn-site.xml
1、=========core-site.xml
<configuration>
刚才新建的临时文件目录位置:
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/tmp</value>
<final>true</final>
<description>A base for other temporary directories.</description>
</property>
Hdfs地址与端口
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.200:9000</value>
<!-- hdfs://Master.Hadoop:22-->
<final>true</final>
</property>
缓存文件的大小
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
</configuration>
2===========hdfs-site.xml
<configuration>
Hdfs节点个数
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
刚才建立的目录
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
刚才建立的目录
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
第二节点的位置???
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop-host:9001</value>
</property>
开启网络模式???
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
许可,权限???
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
3、mapred-site.xml
//mapreduce通过yarn配置(Hadoop 资源管理器)
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
4、yarn-site.xml
这个文件配置好各自的端口就行
<property>
<name>yarn.resourcemanager.address</name>
<value>hadoop-host:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hadoop-host:18030</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hadoop-host:18088</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hadoop-host:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hadoop-host:18141</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
5、初始化
hadoop namenode -format
17/09/13 05:01:45 INFO common.Storage: Storage directory /usr/local/hadoop-2.8.0/hdfs/name has been successfully formatted.
17/09/13 05:01:45 INFO namenode.FSImageFormatProtobuf: Saving image file /usr/local/hadoop-2.8.0/hdfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
17/09/13 05:01:45 INFO namenode.FSImageFormatProtobuf: Image file /usr/local/hadoop-2.8.0/hdfs/name/current/fsimage.ckpt_0000000000000000000 of size 321 bytes saved in 0 seconds.
17/09/13 05:01:45 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
17/09/13 05:01:45 INFO util.ExitUtil: Exiting with status 0
17/09/13 05:01:45 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at Hadoop-host/127.0.1.1
************************************************************/
启动 sudo sbin/start-all.sh
输入http://localhost:50070/
查看运行情况。
【安装】Hadoop2.8.0搭建过程整理版的更多相关文章
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- Kafka:ZK+Kafka+Spark Streaming集群环境搭建(二)安装hadoop2.9.0
如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...
- 二、Ubuntu14.04下安装Hadoop2.4.0 (伪分布模式)
在Ubuntu14.04下安装Hadoop2.4.0 (单机模式)基础上配置 一.配置core-site.xml /usr/local/hadoop/etc/hadoop/core-site.xml ...
- 一、Ubuntu14.04下安装Hadoop2.4.0 (单机模式)
一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创 ...
- Ubuntu 14.04下安装Hadoop2.4.0 (单机模式)
转自 http://www.linuxidc.com/Linux/2015-01/112370.htm 一.在Ubuntu下创建Hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增 ...
- centos6.6安装hadoop-2.5.0(五、部署过程中的问题解决)
操作系统:centos6.6 环境:selinux disabled:iptables off:java 1.8.0_131 安装包:hadoop-2.5.0.tar.gz 一.安装过程中会出现WAR ...
- 基于hadoop2.6.0搭建5个节点的分布式集群
1.前言 我们使用hadoop2.6.0版本配置Hadoop集群,同时配置NameNode+HA.ResourceManager+HA,并使用zookeeper来管理Hadoop集群 2.规划 1.主 ...
- ubuntu14.04 安装 hadoop2.4.0
转载:ubuntu搭建hadoop-Ver2.6.0完全分布式环境笔记 自己在搭建hadoop平台时,碰到一些困难,按照该博文解决了问题,转载一下,作为记录. 2 先决条件 确保在你集群中的每个节点上 ...
- 安装hadoop2.6.0伪分布式环境
集群环境搭建请见:http://blog.csdn.net/jediael_lu/article/details/45145767 一.环境准备 1.安装linux.jdk 2.下载hadoop2.6 ...
随机推荐
- 深入python3 (Dive Into Python 3) 在线阅读与下载
在线阅读:http://book.doucube.com/diveintopython3/ 中文版 下载地址:https://github.com/downloads/diveintomark/di ...
- wpf 屏蔽热键
原文:wpf 屏蔽热键 版权声明:本文为博主原创文章,未经博主允许不得转载. https://blog.csdn.net/a771948524/article/details/9428923 us ...
- 从 RNN 到 LSTM (Short-Term Memory)
理论上循环神经网络可以支持任意长度的序列,然而在实际中,如果序列过长会导致优化时出现梯度消散(the vanishing gradient problem)的问题,在实际中一把会规定一个最大长度,当序 ...
- Analysis of variance(ANOVA)
方差分析,也称为"变异数分析",用于两个及两个以上样本均值(group means)差别的显著性检验.在 ANOVA 的环境下,一个观测得到的方差视为是由不同方差的源组合而成.
- php 二维数组key初始化从0开始
这个是一个二维数组 array(2) { [1]=> array(2) { ["sourcesid"]=> int(1) ["addusernum" ...
- Cordova页面加载外网图片失败,Refused to load the image
原文:Cordova页面加载外网图片失败,Refused to load the image 1.使用Cordova页面加载外网图片失败,抛出异常 Refused to load the image ...
- .net core api 跨域
什么是跨域? 跨域,指的是浏览器不能执行其他网站的脚本.它是由浏览器的同源策略造成的,是浏览器对JavaScript施加的安全限制. 所谓同源是指,域名,协议,端口均相同,不明白没关系,举个栗子: h ...
- 芒果TV For Windows10 成长历史 & 迭代历史 & 新闻报道
芒果TV 是国内领先的基于Windows10操作系统并支持Windows10全系列设备的视频应用和内容服务商. Win10商店版<芒果TV>是湖南快乐阳光互动娱乐传媒有限公司专门为Wind ...
- Qt之自定义搜索框——QLineEdit里增加一个Layout,还不影响正常输入文字(好像是一种比较通吃的方法)
简述 关于搜索框,大家都经常接触.例如:浏览器搜索.Windows资源管理器搜索等. 当然,这些对于Qt实现来说毫无压力,只要思路清晰,分分钟搞定. 方案一:调用QLineEdit现有接口 void ...
- 什么是YAML?
YAML是"YAML不是一种标记语言"的外语缩写 [1] (见前方参考资料原文内容):但为了强调这种语言以数据做为中心,而不是以置标语言为重点,而用返璞词重新命名.它是一种直观的能 ...