一、前期准备

  1.1 静态ip,请查看虚拟机安装不放呢

  1.2 hostname 以及 hosts文件修改

cat /etc/hostname
 不同的机器设置不同的名字
cat /etc/hosts
192.168.0.110 kyle1
192.168.0.111 kyle2
192.168.0.112 kyle3

  1.3 jdk安装(请见 https://www.cnblogs.com/KyleXu/p/9974962.html

  1.4 SSH免密码登陆

cd ~/.ssh/   # 如果不存在,执行一下 ssh localhost 就好了

# 生成密钥
ssh-keygen -t rsa (一路回车) Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:cvlMVKUdaY41l+IiSS2qAO9el9xGg/5MGZT554uhE0o root@kyle1
The key's randomart image is:
+---[RSA 2048]----+
| + ..o..|
| . * o +=o.|
| o = = o=oo |
| o o O o.o. |
| . . = S * + |
| . o E X . . |
| . . o * = o . |
| . . = . . |
| . |
+----[SHA256]-----+ # 导入公钥
cat id_rsa.pub >> authorized_keys # 另外两台机器上执行完毕之后,将另外两台机器的id_rsa.pub 粘贴到 第一台机器的 authorized_keys 里 # 将authorized_keys分发到另外两台机器上
scp authorized_keys root@kyle2:.ssh/authorized_keys # 测试
ssh kyle3

  1.5 关闭防火墙

systemctl stop firewalld.service
systemctl disable firewalld.service

二、下载

wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.8.5/hadoop-2.8.5.tar.gz

 

tar -zxvf hadoop-2.8.5.tar.gz -C /usr/local/

  

三、hadoop master节点配置

  配置hadoop的配置文件core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,slaves(都在/usr/local/hadoop-2.8.5/etc/hadoop )文件夹下

  3.1 core-site.xml

<configuration>
<property>
    <name>fs.default.name</name>
    <value>hdfs://kyle1:9000</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/usr/local/hadoop-2.8.5/tmp</value>
  </property>
</configuration>

  3.2 hdfs-site.xml

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>2</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/usr/local/hadoop-2.8.5/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/usr/local/hadoop-2.8.5/dfs/data</value>
  </property>
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>kyle1:9001</value>
  </property>
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
  </property>
</configuration>

  3.3  mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

vim mapred-site.xml

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

  3.4 yarn-site.xml

NOTE: 第一个hostname是配置yarn主节点的域名,需要根据自己的情况配置

     <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>kyle1</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>

  3.5 slaves

kyle2
kyle3

  3.6 hadoop-env.sh (/usr/local/hadoop-2.8.5/etc/hadoop)

export JAVA_HOME=/usr/local/java/jdk1.8.0_191

  

四、其他机器配置

scp -r hadoop-2.8.5 root@kyle2:/usr/local/
scp -r hadoop-2.8.5 root@kyle3:/usr/local/

 

五、配置环境变量

## hadoop
export HADOOP_HOME=/usr/local/hadoop-2.8.5
export PATH=$HADOOP_HOME/sbin:$PATH

  

六、格式化节点。

bin/hdfs namenode -format

 

七、启动

# 启动hdfs
sbin/start-dfs.sh # 启动yarn
sbin/start-yarn.sh

八、查看进程

[root@kyle1 hadoop-2.8.5]# jps
6634 SecondaryNameNode
2251 QuorumPeerMain
6478 NameNode

九、网页查看

http://kyle1:50070  (hdfs地址)

http://kyle1:8088 (yarn地址)

hadoop搭建的更多相关文章

  1. hadoop搭建开发环境及编写Hello World

    hadoop搭建开发环境及编写Hello World   本文地址:http://www.cnblogs.com/archimedes/p/hadoop-helloworld.html,转载请注明源地 ...

  2. hadoop搭建伪分布式集群(centos7+hadoop-3.1.0/2.7.7)

    目录: Hadoop三种安装模式 搭建伪分布式集群准备条件 第一部分 安装前部署 1.查看虚拟机版本2.查看IP地址3.修改主机名为hadoop4.修改 /etc/hosts5.关闭防火墙6.关闭SE ...

  3. hadoop搭建一:虚拟机网络配置和基础(未完成)

    基于VMware 15+CentOS 7+Hadoop 2.6,hadoop的搭建主要用于个人学习,水平有限. hadoop搭建一:虚拟机网络配置和基础 hadoop搭建二:hadoop全分布搭建 h ...

  4. 【hbase0.96】基于hadoop搭建hbase的心得

    hbase是基于hadoop的hdfs框架做的分布式表格存储系统,所谓表格系统就是在k/v系统的基础上,对value部分支持column family和column,并支持多版本读写. hbase的工 ...

  5. hadoop搭建杂记:Linux下hadoop的安装配置

    VirtualBox搭建伪分布式模式:hadoop的下载与配置 VirtualBox搭建伪分布式模式:hadoop的下载与配置 由于个人机子略渣,无法部署XWindow环境,直接用的Shell来操作, ...

  6. hadoop搭建杂记:Linux下hostname的更改办法

    VirtualBox搭建hadoop伪分布式模式:更改hostname VirtualBox搭建hadoop伪分布式模式:更改hostname master: ip:192.168.56.120 机器 ...

  7. hadoop搭建杂记:Linux下虚拟机集群网络搭建

    VirtualBox搭建hadoop伪分布式模式 VirtualBox搭建hadoop伪分布式模式 master: ip:192.168.56.120 机器名: master 启动NameNode 启 ...

  8. 单机Hadoop搭建

    通过一段时间的学习,我在我的centos上安装了单机hadoop,如果这对你有帮助,就进来探讨学习一下 Hadoop伪分布式配置 Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以 ...

  9. Hadoop搭建全程

    修改配置文件 cd /etc/sysconfig/network-scripts  #进入网络配置目录 dir ifcfg*                         #找到网卡配置文件 ifc ...

  10. Spark入门到精通--(第八节)环境搭建(Hadoop搭建)

    上一节把Centos的集群免密码ssh登陆搭建完成,这一节主要讲一下Hadoop的环境搭建. Hadoop下载安装 下载官网的Hadoop 2.4.1的软件包.http://hadoop.apache ...

随机推荐

  1. webpack学习(五)entry和output的基础配置

    1:entry和output就是打包的入口和出口的两个对象.但是如果入口文件就一个的话(应该说只希望打包出一个脚本文件), entry直接跟一个字符串(入口文件路径)就可以了.如:entry : &q ...

  2. Linux 标准 C 类型的使用

    尽管大部分程序员习惯自由使用标准类型, 如 int 和 long, 编写设备驱动需要一些小心 来避免类型冲突和模糊的 bug. 这个问题是你不能使用标准类型, 当你需要"一个 2-字节 填充 ...

  3. opacity兼容性以及存在问题处理

    opacity兼容性以及存在问题处理 opacity兼容性 opacity属性是CSS3的属性,用于设置元素的不透明级别.语法: opacity: value | inherit; ①值value表示 ...

  4. seajs源码学习(一)

    今天是2015年12月4日,天气较为阴冷.(习惯性记下日期和天气,总要留些回忆给以后) 学习的最佳捷径是模仿,所以如果想快速提高javascript技术,捷径就是去读大神们的优秀源码.就像我们学说话一 ...

  5. Linux基础:CentOS 6重置密码

    1.开机,按"e"键,进入GNU GRUB引导界面,上下键选择中间行 2.按"e"键,进入编辑界面,末行quiet后空格,输入"1"或者&q ...

  6. Spark RDD的弹性到底指什么

    RDD(Resiliennt Distributed Datasets)抽象弹性分布式数据集对于Spark来说的弹性计算到底提现在什么地方? 自动进行内存和磁盘数据这两种存储方式的切换 Spark 可 ...

  7. ABP-多个DbContext实现事物更新

    1.在ABP中其实多个DbContext并没有在同一个事物中执行,那他是如何操作的,我的理解是 在不使用事物的时候 把多个DbContext存放在ActiveDbContexts 在调用工作单元的时候 ...

  8. 使用原生JDBC方式对数据库进行操作

    使用原生JDBC方式对数据库进行操作,包括六个步骤: 1.加载JDBC驱动程序 在连接数据库之前,首先要加载想要连接的数据库的驱动到JVM.可以通过java.lang.Class类的静态方法forNa ...

  9. ELK学习实验001:Elastic Stack简介

    1 背景介绍 在我们日常生活中,我们经常需要回顾以前发生的一些事情:或者,当出现了一些问题的时候,可以从某些地方去查找原因,寻找发生问题的痕迹.无可避免需要用到文字的.图像的等等不同形式的记录.用计算 ...

  10. MyBatis学习与使用(一)

    写在前面—— 用 MyBatis 也做过几个项目了,但是一直没有很深入的去理解这个框架,最近决定从头开始学习和整理MyBatis. 之前开发的项目并不是我先创建的,等我介入的时候发现他们已经稍稍封装了 ...