CentOS7上安装Hadoop
设置ssh
ssh-keygen -t rsa -P ''
cat id_rsa.pub >> authorized_keys
查看slaves节点的id_rsa.pub文件,将文件内容复制到master节点的authorized_keys文件中
【tips】粘贴过去的每一行必须保证单独是一行!
分发authorized_keys文件到slaves节点
scp authorized_keys root@slave1:~/.ssh/
scp authorized_keys root@slave2:~/.ssh/
修改hosts
vim /etc/hosts
192.168.0.100 master
192.168.0.101 slave1
192.168.0.102 slave2
解压安装
tar -zxvf hadoop-2.6.1.tar.gz -C /usr/local/src/hadoop/
配置java环境变量
cd ./hadoop-2.6.1/etc/hadoop
ls
vim hadoop-env.sh
24行左右,更新
JAVA_HOME=/usr/local/src/jdk/jdk1.8.0_221
vim yarn-env.sh
23行左右添加
JAVA_HOME=/usr/local/src/jdk/jdk1.8.0_221
添加从节点主机名
vim slaves
添加:
slave1
slave2
修改配置文件,添加RPC配置【tips】pdf中的hadoop.tmp.dir是不需要前面的"file:"字眼的,当集群启动不成功的时候可以排查下这个原因
vim core-site.xml
更新以下配置内容:
<configuration>>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/local/src/hadoop/hadoop-2.6.1/tmp</value>
</property>
</configuration>
修改配置文件,添加DFS配置
vim hdfs-site.xml
更新以下配置内容:
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>>dfs.namenode.name.dir</name>
<value>file:/usr/local/src/hadoop/hadoop-2.6.1/dfs/name</value>
</property>
<property>
<name>>dfs.namenode.data.dir</name>
<value>file:/usr/local/src/hadoop/hadoop-2.6.1/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
修改配置文件,添加MR配置
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
更新以下配置内容:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
修改配置文件,添加资源管理配置
vim yarn-site.xml
更新以下配置内容:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8035</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>
创建临时目录和文件目录
mkdir /usr/local/src/hadoop/hadoop-2.6.5/tmp
mkdir -p /usr/local/src/hadoop/hadoop-2.6.5/dfs/name
mkdir -p /usr/local/src/hadoop/hadoop-2.6.5/dfs/data
配置环境变量
vim /etc/profile
在配置末尾追加以下配置内容:
export HADOOP_HOME=/usr/local/src/hadoop/hadoop-2.6.1
export PATH=$PATH:$HADOOP_HOME/bin
复制环境变量和hadoop包,到各个从节点(只举一个从节点)
scp /etc/profile root@slave1:/etc/profile
scp -r /usr/local/src/hadoop/hadoop-2.6.1 root@slave1:/usr/local/src/hadoop/hadoop-2.6.1
加载环境变量
source /etc/profile
格式化namenode
hadoop namenode -format
【notes】此时如果不能正常格式化的话,修改core-site.xml文件配置hadoop.tmp.dir时重试。
测试hadoop集群是否正常
启动集群
./sbin/start-all.sh
查看jps
jps
--master将有3个进程: ResourceManager - Namenode - SecondaryNameNode
--slave1和slave2各有2个进程:NodeManager - DataNode
CentOS7上安装Hadoop的更多相关文章
- 在centos7上安装hadoop
1.使用hadoop是需要jdk环境的,因为hadoop里面有java程序,而运行java程序需要jdk. 2.从宿主机上传文件到虚拟机有很多方法,我选择的是在虚拟机安装lrzsz,安装lrzsz命令 ...
- Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)--------hadoop环境的搭建
Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)------https://blog.csdn.net/pucao_cug/article/details/71698903 ...
- CentOS7 分布式安装 Hadoop 2.8
1. 基本环境 1.1 操作系统 操作系统:CentOS7.3 1.2 三台虚拟机 172.20.20.100 master 172.20.20.101 slave1 172.20.20.102 sl ...
- 在centos7上安装Jenkins
在centos7上安装Jenkins 安装 添加yum repos,然后安装 sudo wget -O /etc/yum.repos.d/jenkins.repo http://pkg.jenkins ...
- 在 CentOS7 上安装 zookeeper-3.4.9 服务
在 CentOS7 上安装 zookeeper-3.4.9 服务 1.创建 /usr/local/services/zookeeper 文件夹: mkdir -p /usr/local/service ...
- 在 CentOS7 上安装 MongoDB
在 CentOS7 上安装 MongoDB 1 通过 SecureCRT 连接至 CentOS7 服务器: 2 进入到 /usr/local/ 目录: cd /usr/local 3 在当前目录下创建 ...
- 在 CentOS7 上安装 MySQL5.7
在 CentOS7 上安装 MySQL5.7 1 通过 SecureCRT 连接到阿里云 CentOS7 服务器: 2 进入到目录 /usr/local/ 中: cd /usr/local/ 3 创建 ...
- 在 CentOS7 上安装 Tomcat9
在 CentOS7 上安装 Tomcat9 1 通过 SecureCRT 连接到阿里云 CentOS7 服务器: 2 进入到目录 /usr/local/ 中: cd /usr/local/ 3 创建目 ...
- 在CentOS7上安装JDK1.8
在CentOS7上安装JDK1.8 1 通过 SecureCRT 连接到阿里云 CentOS7 服务器: 2 进入到目录 /usr/local/ 中: cd /usr/local/ 3 创建目录 to ...
随机推荐
- Domain Adaptive Faster R-CNN:经典域自适应目标检测算法,解决现实中痛点,代码开源 | CVPR2018
论文从理论的角度出发,对目标检测的域自适应问题进行了深入的研究,基于H-divergence的对抗训练提出了DA Faster R-CNN,从图片级和实例级两种角度进行域对齐,并且加入一致性正则化来学 ...
- Apollo配置中心的实战
31.携程 Apollo 配置中心介绍~1.mp4 32.Apollo核心概念~1.mp4 32.Apollo核心概念~1.mp4 每个应用需要有一个唯一的AppID 要在指定的机器上的server. ...
- 云计算课程实验之安装Hadoop及配置伪分布式模式的Hadoop
一.实验目的 1. 掌握Linux虚拟机的安装方法. 2. 掌握Hadoop的伪分布式安装方法. 二.实验内容 (一)Linux基本操作命令 Linux常用基本命令包括: ls,cd,mkdir,rm ...
- MongoDB快速入门教程 (2)
2.MongoDB的基本的CRUD操作 2.1.创建文档 在具体操作之前,想要知道有多少数据库,可以执行下面命令 show dbs 在mongodb中,数据库中包含的叫做集合(表),集合中存储的内容叫 ...
- 洛谷 P1194 【买礼物】
这道题其实就是转化一个模型就可以了. 买了一个另外一个又优惠,其实就相当于在优惠的时候连一条边,因为不可能多买,所以就是建一棵最小生成树.最后因为肯定买了一件物品,要加上最初的单价. 代码: #inc ...
- Write a program to copy its input to its output, replacing each string of one or more blanks by a single blank.
#include <stdio.h> void main() { int c,c_BCN; while((c=getchar())!=EOF) { if(c!=' ') c_BCN=; i ...
- java 包装类的使用
1.为什么要有包装类(或封装类) 为了使基本数据类型的变量具有类的特征,引入包装类. 2.基本数据类型与对应的包装类: 3.需要掌握的类型间的转换:(基本数据类型.包装类.String) 应用场景举例 ...
- 【线型DP】【LCS】UVA_10635 Prince and Princess
嘤嘤嘤,我又来了,刚A完就写,这个沙雕题有丶恶心. ???时间4.11发现所有表情包都莫得了 题目: In an n×n chessboard, Prince and ...
- 5.scrapy过滤器
scrapy过滤器 1. 过滤器 当我们在爬取网页的时候可能会遇到一个调转连接会在不同页面出现,这个时候如果我们的爬虫程序不能识别出 该链接是已经爬取过的话,就会造成一种重复不必要的爬取.所以我们要对 ...
- idea+DevTools热部署
1.增加devtools依赖 <!-- 热部署DevTools --> <dependency> <groupId>org.springframework.boot ...