Hadoop的安装与部署
一、硬件及环境
服务器:3台,IP分别为:192.168.100.105、192.168.100.110、192.168.100.115
操作系统:Ubuntu Server 18.04
JDK:1.8.0
Hadoop:3.3.1
二、系统配置
* 3台机都要执行以下操作
1.登录root账号
su
2.配置时区
https://www.cnblogs.com/live41/p/14237170.html
* 如果部署过程遇到一些莫名其妙的错误,或者日志的时间是错的,先用date -R检查一下时区是否正确。
3.配置hosts
vim /etc/hosts
添加内容
192.168.100.105 c1
192.168.100.110 c2
192.168.100.115 c3
4.关闭防火墙
ufw disable
5.安装ssh
apt install ssh
6.设置免密登录
https://www.cnblogs.com/live41/p/14236950.html
* 见第二点的第5点
7.安装JDK
https://www.cnblogs.com/live41/p/14235891.html
三、部署Hadoop
* 3台机都要执行以下操作
1.下载Hadoop安装包
https://downloads.apache.org/hadoop/common/
2.解压安装包
这里假定下载的是hadoop-3.3.1.tar.gz文件,解压到/usr/bin/目录
tar -xvf hadoop-3.3.1.tar.gz -C /usr/local/
把目录名也改一下
mv /usr/local/hadoop-3.3.1 /usr/local/hadoop
3.创建目录
cd /usr/local/hadoop
sudo mkdir hdfs
sudo mkdir hdfs/datanode
sudo mkdir hdfs/namenode
sudo mkdir hadoop/logs
sudo mkdir yarn
sudo mkdir yarn/logs
4.配置环境变量
vim ~/.bashrc
添加内容
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
更新环境变量
source ~/.bashrc
测试
hadoop version
5.修改Hadoop的配置
(1) 进入Hadoop的配置文件目录
cd $HADOOP_CONF_DIR
或cd /usr/local/hadoop/etc/hadoop/
(2) 编辑hadoop-env.sh文件
vim hadoop-env.sh
查看以下内容,如果没有就加上,如果已有就不用改。
export JAVA_HOME=/usr/bin/jdk1.8.0
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export HADOOP_LOG_DIR=/usr/local/hadoop/logs
(3) 编辑core-site.xml
vim core-site.xml
在c1机添加以下内容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://c1:9820/</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
</configuration>
在c2、c3机添加以下内容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://c1:9820/</value>
<description>NameNode URI</description>
</property>
</configuration>
(4) 编辑hdfs-site.xml文件
vim hdfs-site.xml
在c1机添加以下内容:
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///usr/local/hadoop/hdfs/datanode</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.use.datanode.hostname</name>
<value>false</value>
</property>
<property>
<name>dfs.namenode.datanode.registration.ip-hostname-check</name>
<value>false</value>
</property>
</configuration>
在c2、c3添加以下内容:
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///usr/local/hadoop/hdfs/datanode</value>
<description>DataNode directory</description>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.use.datanode.hostname</name>
<value>false</value>
</property>
</configuration>
(4) 编辑yarn-site.xml文件
vim yarn-site.xml
在c1机添加以下内容:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>file:///usr/local/hadoop/yarn/local</value>
</property>
<property>
<name>yarn.nodemanager.log-dirs</name>
<value>file:///usr/local/hadoop/yarn/logs</value>
</property>
</configuration>
在c2、c3机添加以下内容:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
(5) 编辑mapred-site.xml文件
vim mapred-site.xml
在c1机添加以下内容:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>c1:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>c1:19888</value>
</property>
<property>
<name>mapreduce.jobhistory.intermediate-done-dir</name>
<value>/mr-history/tmp</value>
</property>
<property>
<name>mapreduce.jobhistory.done-dir</name>
<value>/mr-history/done</value>
</property>
</configuration>
在c2、c3机添加以下内容:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
(6) 修改workers文件(旧版的是slaves文件)
vim workers
添加以下内容:
c1
c2
c3
6.修改文件权限
chmod 777 /usr/local/hadoop/hdfs
chmod 777 /usr/local/hadoop/logs
7.格式化hdfs
hdfs namenode -format
四、启动和停止Hadoop
1.启动
在c1机执行:
start-dfs.sh
start-yarn.sh
2.检查是否运行正常
每台机执行:
jps
3.创建目录和查看目录
在c1机执行:
hdfs dfs -mkdir /Clotho
hdfs dfs -ls /
4.登录管理界面
http://c1:9870/ 或 http://192.168.100.105:9870/
5.停止
在c1机执行:
stop-yarn.sh
stop-dfs.sh
附:更简单和安全的操作
https://tecadmin.net/install-hadoop-on-ubuntu-20-04/
http://www.mtitek.com/tutorials/bigdata/hadoop/install.php
以上2篇新建了hadoop用户来运行,且并没有关闭防火墙,只是开通了必须的端口。
Hadoop的安装与部署的更多相关文章
- Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装
[注]该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取 .编译Hadooop 1.1 搭建环境 1.1.1 安装并设置maven 1. 下载mave ...
- Hadoop 2.2.0部署安装(笔记,单机安装)
SSH无密安装与配置 具体配置步骤: ◎ 在root根目录下创建.ssh目录 (必须root用户登录) cd /root & mkdir .ssh chmod 700 .ssh & c ...
- Hadoop教程(五)Hadoop分布式集群部署安装
Hadoop教程(五)Hadoop分布式集群部署安装 1 Hadoop分布式集群部署安装 在hadoop2.0中通常由两个NameNode组成,一个处于active状态,还有一个处于standby状态 ...
- 利用Ambari平台安装与部署Hadoop
* 本篇是利用Ambari平台安装与部署Hadoop,如果需要原生部署Hadoop,请点击以下地址: https://www.cnblogs.com/live41/p/15467263.html 一. ...
- Hadoop学习---安装部署
hadoop框架 Hadoop使用主/从(Master/Slave)架构,主要角色有NameNode,DataNode,secondary NameNode,JobTracker,TaskTracke ...
- Hive安装与部署集成mysql
前提条件: 1.一台配置好hadoop环境的虚拟机.hadoop环境搭建教程:稍后补充 2.存在hadoop账户.不存在的可以新建hadoop账户安装配置hadoop. 安装教程: 一.Mysql安装 ...
- Hadoop在win7下部署的问题
问题: 为了测试方便所以在win7下部署了伪分布式hadoop运行环境,但是部署结束后在命令行运行hadoop命令创建一个用户文件目录时出现了一下情况: 系统找不到指定的批标签- make_comma ...
- hadoop分布式安装教程(转)
from:http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html 1.集群部署介绍 1.1 Hadoop简介 Hadoop是Ap ...
- Hadoop伪分布式模式部署
Hadoop的安装有三种执行模式: 单机模式(Local (Standalone) Mode):Hadoop的默认模式,0配置.Hadoop执行在一个Java进程中.使用本地文件系统.不使用HDFS, ...
随机推荐
- Oracle体系结构二
- ClickOnce手动更新
if (ApplicationDeployment.IsNetworkDeployed == true) { ApplicationDeploy ...
- MySQL-技术专题-MySQL主从架构以及[半同步机制]模式大全
MySQL的主从复制 一般在大规模的项目上,都是使用MySQL的复制功能来创建MySQL的主从集群的. 主要是可以通过为数据库服务器配置一个或多个备库的方式来进行数据同步. 复制的功能不仅有利于构建高 ...
- php时间区间,优化显示
<?php /** * 类似微信的时间显示 * 规则是:今天的,显示几秒前,几分钟前,几小时前,昨天的显示昨天 上午 XX:XX * 再往前,本周的,显示周几+时间,再往前,本年的,显示月日+时 ...
- 【C++基础教程】第一课
一,C++基础 1.1.什么是C++ C++是一种面向对象的编程语言,如今被广泛应用于各种行业. 1.2.C++的语法特点 一般C++的程序长成这个样子: #include<...> // ...
- jmeter 录制排除模式
jmeter录制时,静态的资源不需要,可以在录制的时候直接排除. .*\.(bmp|css|js|gif|icov|jpeg|png|swf|woff|woff2|htm|html).* .*\.(j ...
- JavaScript 原生控制元素添加删除
参考: https://blog.csdn.net/leijie0322/article/details/80664554 https://www.cnblogs.com/jpfss/p/910620 ...
- Python守护线程简述
thread模块不支持守护线程的概念,当主线程退出时,所有的子线程都将终止,不管它们是否仍在工作,如果你不希望发生这种行为,就要引入守护线程的概念. threading模块支持守护线程,其工作方式是: ...
- element-ui上传多个文件时会发送多个请求
1. element-ui的默认 默认是异步多次请求上传单个文件 如果业务就是单纯的上传文件,那么这个样子是没有问题的 前端代码参考 https://element-plus.gitee.io/#/z ...
- docker 安装 wordpress,通过nginx反向代理,绑定域名,配置https
假设docker已经安装好了,如果没有安装,可以照着 5分钟安装docker教程. 一. 下载镜像 默认下载最新版本,如果想指定对应版本,可以用冒号后加版本,像这样mysql:5.7: docker ...