在CentOS7下搭建Hadoop2.9.0集群
系统环境:CentOS 7
JDK版本:jdk-8u191-linux-x64
MYSQL版本:5.7.26
Hadoop版本:2.9.0
Hive版本:2.3.4
| Host Name | Ip | User/Pass |
| Namenode | 192.168.2.3 | root/root. |
| Datanode1 | 192.168.2.5 | root/root. |
| Datanode2 | 192.168.2.6 | root/root. |
安装JDK:
https://www.cnblogs.com/java-h/p/11127259.html
安装MYSQL
https://www.cnblogs.com/java-h/p/11127636.html
1、配置服务器环境
1、进入root : su root
2、关闭防火墙:systemctl stop firewalld 3、关闭防火墙开机自启:systemctl disable firewalld.service 4、查看防火墙状:firewall-cmd –state 5、修改每台机的hosts:vim /etc/hosts 192.168.2.3 namenode 192.168.2.5 datanode1 192.168.2.6 datanode2
2、配置SSH免密登录
1、在Namenode 上生成密钥对:ssh-keygen -t rsa 2、在从机上创建.ssh文件夹:mkdir .ssh 3、将公钥复制到从机(Datanode1、Datanode2)上: scp ~/.ssh/id_rsa.pub root@192.168.2.6:~/.ssh/ scp ~/.ssh/id_rsa.pub root@192.168.2.5:~/.ssh/ 4、登录从机,进入目录:cd /home/hadoop/ 5、将公钥放到.ssh中的authorized_keys: cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 6、测试: 在主机namenode上登陆从机datanode1
ssh datanode1
ssh datanode2
ssh namenode
如果能切换到对应的机器则表示成功。
注意:
1、在切换到datanode1 后,如果需要测试登陆datanode2的话,需要先返回到master,用命令exit。
2、配置SSH时除了子节点主节点自己也要给自己配置SSH免密。
3、配置Hadoop集群
1、创建存放Hadoop的文件夹:mkdir /home/bigdata
2、进入新建的文件夹:cd /home/bigdata
3、解压hadoop和建立文件:tar -zxvf hadoop-2.9.0.tar.gz
4、重命名:mv hadoop-2.9.0 hadoop
5、创建hdfs相关文件(三台机子都需要操作)
mkdir /home/data
mkdir /home/data/tmp
mkdir /home/data/dfs
7、创建dfs系统使用的dfs系统名称hdfs-site.xml使用:
mkdir /home/data/dfs/name
8、创建dfs系统使用的数据文件hdfs-site.xml文件使用:
mkdir /home/data/dfs/data
7、配置环境变量(三台机子都需要操作)
root用户下:vim /etc/profile
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar:$JRE_HOME/lib
export HADOOP_HOME=/home/bigdata/hadoop
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME:$PATH
保存退出后:source /etc/profile
4、配置Hadoop集群配置文件
进入Hadoop的配置文件存放的地方:cd /home/bigdata/hadoop/etc/hadoop
(1)修改 core-site.xml 文件,在configuration添加配置
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/bigdata/hadoopdir/tmp/</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
(2)修改hdfs-site.xml文件
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/data/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/data/dfs/data</value>
</property>
</configuration>
(3)修改mapred-site.xml.template 文件
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
<property>
<name>mapreduce.jobtracker.http.address</name>
<value>master:50030</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
(4)修改 yarn-site.xml文件
<configuration> <!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>namenode</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>namenode:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>namenode:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>namenode:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>namenode:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>namenode:8088</value>
</property>
</configuration>
(5)修改slave文件
在文件中注释掉localhost 并添加节点名称:
namenode
datanode1
datanode2
5、搭建集群
1、格式hadoop文件:hadoop namenode -format
2、发送dfs内容给Slave1:scp -r /home/data/dfs/* datanode1:/home/bigadata/hadoopdir/dfs
3、发给dfs内容给Slave2:scp -r /home/data/dfs/* datanode2:/home/bigadata/hadoopdir/dfs
4、发送hadoop文件给数据节点:scp -r /home/bigadata/hadoop/* datanode1:/home/bigadata/hadoop/
scp -r /home/bigadata/hadoop/* datanode2:/home/bigadata/hadoop/
5、启动集群
进入sbin:cd /home/bigdata/hadoop/sbin
启动Hadoop:./start-all.sh 使用jps 命令查看启动情况(没有这个命令的需要安装 yum install jps*)
登录网页查看:http://Master:50070 (查看live node) 查看yarn环境(http://Master/8088)
遇到的问题:
、namenode: Error: JAVA_HOME is not set and could not be found. 解决方案:进入 vim /home/bigdata/hadoop/etc/hadoop/hadoop-env.sh 把JAVA_HOME修改为: export JAVA_HOME=/home/bigdata/jdk
如有不懂,可添加QQ问我,一起交流,一起进步:1162492808
在CentOS7下搭建Hadoop2.9.0集群的更多相关文章
- centos7 下搭建hadoop2.9 分布式集群
首先说明,本文记录的是博主搭建的3节点的完全分布式hadoop集群的过程,环境是centos 7,1个nameNode,2个dataNode,如下: 1.首先,创建好3个Centos7的虚拟机,具体的 ...
- CentOS6.4上搭建hadoop-2.4.0集群
公司Commerce Cloud平台上提供申请主机的服务.昨天试了下,申请了3台机器,搭了个hadoop环境.以下是机器的一些配置: emi-centos-6.4-x86_64medium | 6GB ...
- ubuntu14.04搭建Hadoop2.9.0集群(分布式)环境
本文进行操作的虚拟机是在伪分布式配置的基础上进行的,具体配置本文不再赘述,请参考本人博文:ubuntu14.04搭建Hadoop2.9.0伪分布式环境 本文主要参考 给力星的博文——Hadoop集群安 ...
- CentOS7搭建Hadoop2.8.0集群及基础操作与测试
环境说明 示例环境 主机名 IP 角色 系统版本 数据目录 Hadoop版本 master 192.168.174.200 nameNode CentOS Linux release 7.4.1708 ...
- CentOS7.5搭建Solr7.4.0集群服务
一.Solr集群概念 solr单机版搭建参考: https://www.cnblogs.com/frankdeng/p/9615253.html 1.概念 SolrCloud(solr 云)是Solr ...
- 第八章 搭建hadoop2.2.0集群,Zookeeper集群和hbase-0.98.0-hadoop2-bin.tar.gz集群
安装配置jdk,SSH 一.首先,先搭建三台小集群,虚拟机的话,创建三个 下面为这三台机器分别分配IP地址及相应的角色:集群有个特点,三台机子用户名最好一致,要不你就创建一个组,把这些用户放到组里面去 ...
- 搭建hadoop2.6.0集群环境
一.规划 (一)硬件资源 10.171.29.191 master 10.171.94.155 slave1 10.251.0.197 slave3 (二)基本资料 用户: jediael 目录: ...
- 搭建hadoop2.6.0集群环境 分类: A1_HADOOP 2015-04-20 07:21 459人阅读 评论(0) 收藏
一.规划 (一)硬件资源 10.171.29.191 master 10.171.94.155 slave1 10.251.0.197 slave3 (二)基本资料 用户: jediael 目录: ...
- Linux基于Hadoop2.8.0集群安装配置Hive2.1.1及基础操作
前言 安装Apache Hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可,安装前需保证Hadoop已启(动文中用到了hadoop的hdfs命 ...
随机推荐
- IIS IP地址与端口
IP地址 全部未分配,则以下所有IP对应端口都可以访问网站指定IP,则只有指定IP可以访问网站 1 端口 可以在建立网站之后继续添加端口,则所有添加的端口均可以访问 2 3
- LeetCode - 4 - Longest Substring Without Repeating Characters
题目 URL:https://leetcode.com/problems/median-of-two-sorted-arrays/ 解法 二分法. 总的思想是将 2 个数组用 2 个指针“整体”二分. ...
- Android各版本对应的SDK和JDK版本
原文:Android各版本对应的SDK和JDK版本 一.Android各版本对应的SDK版本: 平台版本 SDK版本 版本名称 Android 8.0 26 Oreo Android 7.1 25 N ...
- 汇编实现获取CPU信息
这是文章最后一次更新,加入了TLB与Cache信息等资料前言:论坛上面有人不明白CPUID指令的用法,于是就萌生写这篇文章的想法,若有错误话请大侠指出,谢谢了 ^^论坛的式样貌似有问题,若式样问题导致 ...
- DateTime格式转换结果
Console.WriteLine(string.Format("ToLongDateString:{0}", DateTime.Now.ToLongDateString())); ...
- SQL Server 限制IP登陆(登陆触发器运用)
原文:SQL Server 限制IP登陆(登陆触发器运用) 一.本文所涉及的内容(Contents) 本文所涉及的内容(Contents) 背景(Contexts) 实现代码(SQL Codes) 补 ...
- Qt文档系统分析(解释Qt文档的生成工具与过程)
写在前面 只要打开Qt Assistant或Qt Creator的Help,或是打开在线版的 http://doc.qt.nokia.com ,Qt的漂亮的文档就会呈现在我们眼前.而且 Qt的文档,长 ...
- Android零基础入门第70节:ViewPager轻松完成TabHost效果
上一期学习了ViewPager的简单使用,本期一起来学习ViewPager的更多用法. 相信很多同学都使用过今日头条APP吧,一打开主界面就可以看到顶部有很多Tab,然后通过左右滑动来切换,就可以通过 ...
- 一小部分机器学习算法小结: 优化算法、逻辑回归、支持向量机、决策树、集成算法、Word2Vec等
优化算法 先导知识:泰勒公式 \[ f(x)=\sum_{n=0}^{\infty}\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n \] 一阶泰勒展开: \[ f(x)\approx ...
- [机器学习]Bagging and Boosting
Bagging 和 Boosting 都是一种将几个弱分类器(可以理解为分类或者回归能力不好的分类器)按照一定规则组合在一起从而变成一个强分类器.但二者的组合方式有所区别. 一.Bagging Bag ...