这里的安装是在Linux系统上安装的

参考博客 :

https://blog.csdn.net/cafebar123/article/details/73500014

https://blog.csdn.net/bingduanlbd/article/details/51874195

1.安装Java

首先要确认安装了Java,用命令确定安装了Java。

java -version

如果没有安装Java,请自行百度安装配置Java

2.在Linux下创建一个用户给Hadoop使用

sudo adduser hadoop

这里创建了一个叫hadoop的用户

3.给账号添加sudo权限

sudo usermod -G sudo hadoop

4.切换Linux账号到hadoop

su hadoop

5.配置SSH无密码登录

首先生成公私密钥对:

ssh-keygen -t rsa

指定key pair的存放位置,回车默认存放于/home/hadoop/.ssh/id_rsa
输入passphrase,这里直接回车,为空,确保无密码可登陆。
拷贝生成的公钥到授权key文件(authorized_keys)

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 

6.改变key权限为拥有者可读可写(0600) :

chmod  ~/.ssh/authorized_keys

chomod命令参考:

chmod  file – owner can read and write
chmod  file – owner can read, write and execute
chmod  file – all can read and write
chmod  file – all can read, write and execute

测试是否成功:

ssh localhost

7.下载hadoop到用户(hadoop用户)的根目录下

注意,需要下载最新的版本可以到https://hadoop.apache.org/官网下载,点击Download-进入下载页面,选择Binary download项下的包下载。

8.下载完成后,解压包

tar -zxvf 最新的hadoop包名

9.重命名一下(当然也可以忽略)

mv hadoop- hadoop

(最好做个关联ln -s hadoop-2.6.0 hadoop)
10.配置环境变量

vim ~/.bashrc
export JAVA_HOME=/usr/java/jdk1.7.0_79/
export HADOOP_HOME=/home/hadoop/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin 

11.让环境变量生效

source ~/.bashrc

12.配置Hadoop

cd到/home/hadoop/hadoop-2.8.5/etc下,使用下面的命令编辑 core-site.xml 文件。

vim core-site.xml

在<configuration>里添加下面的内容:

<configuration>
<property>
  <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>
</configuration>

13.配置HDFS

vim hdfs-site.xml

在<configuration>里添加下面的内容:

<configuration>
<property>
 <name>dfs.replication</name>
 <value>1</value>
</property>

<property>
  <name>dfs.name.dir</name>
    <value>file:///home/hadoop/hadoopdata/hdfs/namenode</value>
</property>

<property>
  <name>dfs.data.dir</name>
    <value>file:///home/hadoop/hadoopdata/hdfs/datanode</value>
</property>
</configuration>

14.配置MapReduce

vim mapred-site.xml

跟上面一样添加下面的内容

 <configuration>
 <property>
  <name>mapreduce.framework.name</name>
   <value>yarn</value>
 </property>
</configuration>

15.配置YARM:

vim yarn-site.xml

跟上面一样添加下面的内容

<configuration>
 <property>
  <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>
</configuration>

16.启动集群,格式化HDFS,
使用之前,需要先格式化Hadoop文件系统

hdfs namenode -format

当然,如果你没有配环境,也可以直接到指定目录启动命令

cd /home/hadoop/hadoop-2.8.5
./bin/hdfs namenode -format

17.启动HDFS和YARN

cd $HADOOP_HOME/sbin

当然你也可以直接进入对应目录下,输入命令
启动文件系统:

start-dfs.sh

这里写图片描述

启动YARN:

start-yarn.sh

查看状态
查看HDFS状态,浏览器访问: http://localhost:50070

查看second namenode:

http://localhost:50090

查看DataNode:
http://localhost:50075/
http://localhost:50075/dataNodeHome.jsp
简单使用Hadoop:
使用HDFS
在HDFS创建两个目录:

hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/hadoop

上传:

hdfs dfs -put  /opt/modules/elasticsearch-2.3.1/logs logs

从管理界面可以看到:
运行MapReduce作业
提交一个MapReduce作业:

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep logs output 'dfs[a-z.]+'

可以从YARN应用的界面查看作业情况 http://localhost:8088

 
 
 

hadoop单机模式安装流程的更多相关文章

  1. Hadoop单机模式安装

    一.实验环境说明 1. 环境登录 无需密码自动登录,系统用户名shiyanlou,密码shiyanlou 2. 环境介绍 本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到桌面上的程序: ...

  2. 3-1.Hadoop单机模式安装

    Hadoop单机模式安装 一.实验介绍 1.1 实验内容 hadoop三种安装模式介绍 hadoop单机模式安装 测试安装 1.2 实验知识点 下载解压/环境变量配置 Linux/shell 测试Wo ...

  3. Hadoop单机模式安装-(3)安装和配置Hadoop

    网络上关于如何单机模式安装Hadoop的文章很多,按照其步骤走下来多数都失败,按照其操作弯路走过了不少但终究还是把问题都解决了,所以顺便自己详细记录下完整的安装过程. 此篇主要介绍在Ubuntu安装完 ...

  4. Hadoop单机模式安装-(2)安装Ubuntu虚拟机

    网络上关于如何单机模式安装Hadoop的文章很多,按照其步骤走下来多数都失败,按照其操作弯路走过了不少但终究还是把问题都解决了,所以顺便自己详细记录下完整的安装过程. 此篇主要介绍在虚拟机设置完毕后, ...

  5. Hadoop单机模式安装-(1)安装设置虚拟环境

    网络上关于如何单机模式安装Hadoop的文章很多,按照其步骤走下来多数都失败,按照其操作弯路走过了不少但终究还是把问题都解决了,所以顺便自己详细记录下完整的安装过程. 此篇主要介绍如何在Windows ...

  6. centos7 hadoop 单机模式安装配置

    前言 由于现在要用spark,而学习spark会和hdfs和hive打交道,之前在公司服务器配的分布式集群,离开公司之后,自己就不能用了,后来用ambari搭的三台虚拟机的集群太卡了,所以就上网查了一 ...

  7. 【大数据系列】hadoop单机模式安装

    一.添加用户和用户组 adduser hadoop 将hadoop用户添加进sudo用户组 sudo usermod -G sudo hadoop 或者 visudo 二.安装jdk 具体操作参考:c ...

  8. centos7 hive 单机模式安装配置

    前言:由于只是在自己的虚拟机上进行学习,所以对hive只是进行最简单的配置,其他复杂的配置文件没有配置. 1.前提 1.1 安装配置jdk1.8 1.2 安装hadoop2.x hadoop单机模式安 ...

  9. Hadoop 2.x 版本的单机模式安装

    Hadoop 2.x 版本比起之前的版本在Hadoop和MapReduce上做了许多变化,主要的变化之一,是JobTracker被ResourceManager和ApplicationManager所 ...

随机推荐

  1. http协议状态码解析

    关键词 HTTP协议 状态码 摘要 本文列出了HTTP协议的所有的状态码,并对每个状态码的含义作了深入的解释,以便大家参考.   本文列出了HTTP协议的所有的状态码,并对每个状态码的含义作了深入的解 ...

  2. C++动态链接库方法调用

    //定义内存的信息结构 [StructLayout(LayoutKind.Sequential)] public struct MEMORY_INFO { public uint dwLength; ...

  3. centos tree 命令

    ftp://mama.indstate.edu/linux/tree/ download & make

  4. (转)python爬虫:http请求头部(header)详解

    本文根据RFC2616(HTTP/1.1规范),参考 http://www.w3.org/Protocols/rfc2068/rfc2068 http://www.w3.org/Protocols/r ...

  5. 大数据量下的SQL Server数据库自身优化

    原文: http://www.d1net.com/bigdata/news/284983.html 1.1:增加次数据文件 从SQL SERVER 2005开始,数据库不默认生成NDF数据文件,一般情 ...

  6. 20175202 《Java程序设计》第六周学习总结

    20175202 2018-2019-2 <Java程序设计>第六周学习总结 教材知识点总结 1.内部类: Java支持在一个类中定义另一个类,称作内部类,包含内部类的类叫做外嵌类. 内部 ...

  7. 快速简单搭建wordpress平台

      公司一直没有文档平台,于是想弄一个,弄过github平台的,但是都没用上,虽然这个搭建出来也没用上,还是花了时间才弄出来的,也许下次有用的时候,可以拿来就用   安装Wordpress的基础环境要 ...

  8. Java String类和StringBuffer类的区别

    1.String与StringBuffer的区别简单地说,就是一个变量和常量的关系.StringBuffer对象的内容可以修改:而String对象一旦产生后就不可以被修改,重新赋值其实是两个对象.St ...

  9. Linux基础入门-环境变量与文件查找

    一.环境变量: Shell中的变量也有不同的数据类型,不用专门指定类型名,可以参与运算,有作用域限制. declare tmp 创建一个变量 可以不用专门声明,可以即用即创建 tmp=shiyanlo ...

  10. Oauth2手册 第一章

    来源:https://github.com/jeansfish/RFC6749.zh-cn/blob/master/SUMMARY.md 1. 简介在传统的客户端-服务器身份验证模式中,客户端请求服务 ...