虚拟机使用vmware,vmware可以直接百度下载安装 秘钥也能百度到 安装很简单

CentOS 7下载:

进入官网 https://www.centos.org/download/

这里有三种 第一个是标准版 第二个是全部版 第三个是最小版 每个版本的大小都不一样,这里选择标准版下载。点第一个标准版进入镜像 http://isoredirect.centos.org/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1708.iso 这里面有不同的镜像,找一个自己下载快的链接下载就好了。

CentOS 7.3 安装指南

https://www.cnblogs.com/wcwen1990/p/7630545.html https://linux.cn/article-8048-2.html

关闭防火墙,CentOS7 禁用防火墙跟6不一样

firewall-cmd –reload #重启firewall

systemctl stop firewalld.service #停止firewall

systemctl disable firewalld.service #禁止firewall开机启动

firewall-cmd –state #查看默认防火墙状态(关闭后显示notrunning,开启后显示running)

使用Xshell 连接linux主机。在自己Windows电脑找到:c\windows\system32\drivers\etc\host 配置主机的ip 比如:host中加入下面两句

192.168.1.76  master
192.168.1.106 slave

Xshell 上传下载命令 rz,sz

CentOS 7系统下配置自定义JDK的教程

http://www.jb51.net/article/116666.htm

export JAVA_HOME=/home/chs/java/jdk1.8.0_171
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

安装jdk后出如果现bash: ./java: /lib/ld-linux.so.2: bad ELF interpreter: 没有那个文件或目录,原因应该是安装了32位的jdk , 解决办法。最好还是重新安装64位的

第一种 sudo yum install glibc.i686

第二种 安装64位的jdk

hadoop环境变量

vim /etc/profile

export HADOOP_HOME=/home/chs/hadoop/hadoop-2.7.3
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source /etc/profile

配置hadoop参数

第一步 进入

vim hadoop-env.sh

找到

export JAVA_HOME=${JAVA_HOME}
修改为
export JAVA_HOME=/home/chs/java/jdk1.8.0_171

第二步 修改core-site.xml

vim core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>// master是你的主机名字
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/chs/hadoopdata</value>//存放临时数据
</property>
</configuration>

第三步配置hdfs-site.xml

vim hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name> //赋值备份
<value>1</value>//hadoop集群默认有3份数据 1是伪分布式
</property>
</configuration>

第四步 配置yarn-site.xml

vim yarn-site.xml

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:18030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:18088</value>
</property>
</configuration>

第五步 配置mapred-site.xml

如果没有这个文件应该有mapred-site.xml.template 复制一份 或 者重命名也行

cp mapred-site.xml.template mapred-site.xml

vim mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>//把yarn平台做MapReduce的框架
</property>
</configuration>

配置ip

vim /etc/hosts

192.168.1.120  slave
192.168.1.119 master

设置ssh免密码登录

ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
将master中的秘钥复制到slave中
scp ~/.ssh/authorized_keys slave:~/.ssh
将slave中的秘钥复制到master中
scp id_rsa.pub master:~/.ssh/authorized_keys

如果是伪分布式可以直接格式化重启了,如果不是伪分布式,那就配置slaves附属节点

配置从节点文件 slaves

vim slaves

localhost 改为 slave

复制到从节点中

scp slaves slave:/home/chs/hadoop-2.7.3/etc/hadoop

格式化HDFS 创建namenode的文件结构

hadoop namenode -format   或者 hsfs namenode -format

启动Hadoop

先启动HDFS: start-hdfs.sh

在启动yarn : start-yarn.sh

或者一步到位 start-all.sh

查看是否启动成功 jps

启动之后会看到几个进程:

HDFS的进程:NameNode , DataNode , SecondryNameNode

Yarn的进程 :NodeManager , SourceManager

其中master 中的进程是 : NameNode ,SecondryNameNode ,SourceManager

slave中的进程是:DataNode ,NodeManager

浏览器中: 输入 http://master:50070/ 和 http://master:18088 来检查。

想学习大数据的朋友可以加微信:wxid_j9y4t84ezzcr22 领取一份2018最新的大数据学习资料和进阶开发,欢迎想学习大数据的小伙伴加入。还有我们的微信交流群,群里都是学大数据开发的,如果你正在学习大数据 ,小编欢迎你加入,大家都是软件开发党,不定期分享干货(大数据软件开发相关的)。

Hadoop环境安装和集群创建的更多相关文章

  1. hadoop分布式安装及其集群配置笔记

    各机器及角色信息: 共10台机器,hostname与ip地址映射在此不做赘述.此为模拟开发环境安装,所以不考虑将NameNode和SecondaryNameNode安装在同一台机器. 节点 角色 na ...

  2. centos7 环境安装rabbitmq 集群

    继上一篇https://www.cnblogs.com/drafire/p/10062891.html ,这篇博客继续介绍centos 7下安装rabbitmq的集群. 今天在公司搞了一天的rabbi ...

  3. hadoop 2.2.0集群安装

    相关阅读: hbase 0.98.1集群安装 本文将基于hadoop 2.2.0解说其在linux集群上的安装方法,并对一些重要的设置项进行解释,本文原文链接:http://blog.csdn.net ...

  4. 吴裕雄--天生自然HADOOP操作实验学习笔记:安装zookeeper集群

    实验目的 了解zookeeper的概念和原理 学会安装zookeeper集群并验证 掌握zookeeper命令使用 实验原理 1.Zookeeper介绍 ZooKeeper是一个分布式的,开放源码的分 ...

  5. Hadoop 2.6.1 集群安装配置教程

    集群环境: 192.168.56.10 master 192.168.56.11 slave1 192.168.56.12 slave2 下载安装包/拷贝安装包 # 存放路径: cd /usr/loc ...

  6. hadoop 2.2.0集群安装详细步骤(简单配置,无HA)

    安装环境操作系统:CentOS 6.5 i586(32位)java环境:JDK 1.7.0.51hadoop版本:社区版本2.2.0,hadoop-2.2.0.tar.gz 安装准备设置集群的host ...

  7. Hadoop+HBase+ZooKeeper分布式集群环境搭建

    一.环境说明 集群环境至少需要3个节点(也就是3台服务器设备):1个Master,2个Slave,节点之间局域网连接,可以相互ping通,下面举例说明,配置节点IP分配如下: Hostname IP ...

  8. kubernetes学习与实践篇(二) kubernetes1.5 的安装和集群环境部署

    kubernetes 1.5 的安装和集群环境部署 文章转载自:http://www.cnblogs.com/tynia/p/k8s-cluster.html 简介: Docker:是一个开源的应用容 ...

  9. Ubuntu 下 Neo4j单机安装和集群环境安装

    1. Neo4j简介 Neo4j是一个用Java实现的.高性能的.NoSQL图形数据库.Neo4j 使用图(graph)相关的概念来描述数据模型,通过图中的节点和节点的关系来建模.Neo4j完全兼容A ...

随机推荐

  1. 更换django自带的下载链接

    class Case(models.Model): file_type = MyFileField(verbose_name='file_obj', max_length=256, blank=Tru ...

  2. java单例模式实现

    1.最基本的单例模式 /** * @author LearnAndGet * @time 2018年11月13日 * 最基本的单例模式 */ public class SingletonV1 { pr ...

  3. javascript之Number对象

    <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/ ...

  4. SQL学习(六)select into:复制表信息

    在实际工作中,可能需要将一个表中的数据复制到另一个表中,以供后续使用.此时可以用关键字select into(在MySQL中不支持select into,可使用insert into...select ...

  5. 《Javascript 语言精粹》 中 用到的一些代码 (1)

    var isNumber = function isNumber(value){ return typeof value === 'number' && isFinite(value) ...

  6. yum安装epel源

    国内yum源的安装(163,阿里云,epel)   国内yum源的安装(163,阿里云,epel) ----阿里云镜像源 1.备份 mv /etc/yum.repos.d/CentOS-Base.re ...

  7. 【转】最新版zookeeper配置看这一篇就够了

    [From]https://blog.csdn.net/yydriver/article/details/81107954 版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载 ...

  8. DevOps - Scrum

    1 - DevOps与敏捷开发 在采用敏捷开发的情况下,所有成员都对服务和产品负责,理解彼此的业务,符合DevOps的组织和文化. 以商业需求为核心,在较短期间内确定开发方针,并持续进行改善,从而逐步 ...

  9. 【HANA系列】SAP HANA SQL合并多行操作

    公众号:SAP Technical 本文作者:matinal 原文出处:http://www.cnblogs.com/SAPmatinal/ 原文链接:[HANA系列]SAP HANA SQL合并多行 ...

  10. XML模块,面向对象思想与类的定义

    今日内容 XML模块,面向对象思想,类的定义 1.XML模块 xml是一种可扩展的标记语言格式如下 使用 <> 作为标签格式 <tag style: '' color:read '' ...