useradd –m hadoop –s /bin/bash

passwd hadoop
 
增加sudo权限
chmod u+w /etc/sudoers
vi /etc/sudoers
root    ALL=(ALL)       ALL

hadoop ALL=(ALL) ALL

chmod u-w /etc/sudoers

 
 
su hadoop && cd ~
 
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
 
tar -zxf hadoop-2.7.7.tar.gz
sudo mkdir /usr/local/hadoop
sudo mv hadoop-2.7.7 /usr/local/hadoop
mkdir dfs
mkdir dfs/name
mkdir dfs/data
mkdir tmp
 
cd /usr/local/hadoop/hadoop-2.7.7/etc/hadoop
 
涉及到的配置文件有7个:

安装路径/hadoop-2.7.7/etc/hadoop/hadoop-env.sh

安装路径/hadoop-2.7.7/etc/hadoop/yarn-env.sh

安装路径/hadoop-2.7.7/etc/hadoop/slaves

安装路径/hadoop-2.7.7/etc/hadoop/core-site.xml

安装路径/hadoop-2.7.7/etc/hadoop/hdfs-site.xml

安装路径/hadoop-2.7.7/etc/hadoop/mapred-site.xml

安装路径/hadoop-2.7.7/etc/hadoop/yarn-site.xml

 
hadoop-env.sh和yarn-env.sh 里修改JAVA_HOME
===
cat core-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
      <property>
               <name>fs.defaultFS</name>
               <value>hdfs://localhost:8020</value>
      </property>
      <property>
               <name>io.file.buffer.size</name>
               <value>131072</value>
       </property>
      <property>
              <name>hadoop.tmp.dir</name>
               <value>file:/home/hadoop/tmp</value>
              <description>Abase for other temporary   directories.</description>
      </property>
       <property>
               <name>hadoop.proxyuser.hadoop.hosts</name>
              <value>*</value>
      </property>
      <property>
               <name>hadoop.proxyuser.hadoop.groups</name>
              <value>*</value>
      </property>
      <property>
       <name>hadoop.proxyuser.root.groups</name>
       <value>*</value>
       <description>Allow the superuser oozie to impersonate any members of the group group1 and group2</description>
     </property>
     <property>
       <name>hadoop.proxyuser.root.hosts</name>
       <value>*</value>
       <description>The superuser can connect only from host1 and host2 to impersonate a user</description>
     </property>

</configuration>

===
cat hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
       <property>
               <name>dfs.namenode.secondary.http-address</name>
              <value>localhost:9001</value>
       </property>
     <property>
            <name>dfs.namenode.name.dir</name>
             <value>file:/home/hadoop/dfs/name</value>
       </property>
      <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/home/hadoop/dfs/data</value>
       </property>
       <property>
              <name>dfs.replication</name>
              <value>3</value>
        </property>
        <property>
                 <name>dfs.webhdfs.enabled</name>
                 <value>true</value>
         </property>
</configuration>
===

cp mapred-site.xml.template mapred-site.xml
 
cat mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
       <property>
               <name>mapreduce.framework.name</name>
               <value>yarn</value>
          </property>
         <property>
                 <name>mapreduce.jobhistory.address</name>
                 <value>localhost:10020</value>
         </property>
         <property>
                <name>mapreduce.jobhistory.webapp.address</name>
               <value>localhost:19888</value>
      </property>
</configuration>
=======

 cat yarn-site.xml
<?xml version="1.0"?>
<configuration>
<property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
       </property>
       <property>                                                               
              <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
              <value>org.apache.hadoop.mapred.ShuffleHandler</value>
       </property>
       <property>
              <name>yarn.resourcemanager.address</name>
              <value>localhost:8032</value>
      </property>
      <property>
              <name>yarn.resourcemanager.scheduler.address</name>
              <value>localhost:8030</value>
      </property>
      <property>
           <name>yarn.resourcemanager.resource-tracker.address</name>
            <value>localhost:8031</value>
     </property>
     <property>
              <name>yarn.resourcemanager.admin.address</name>
              <value>localhost:8033</value>
      </property>
      <property>
              <name>yarn.resourcemanager.webapp.address</name>
              <value>localhost:8088</value>
      </property>
</configuration>
====
设置环境变量
HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.7
并将其中的bin和sbin加入path中
 
格式化namenode:hdfs namenode –format或使用hadoop namenode format
 
$ start-dfs.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /usr/local/hadoop/hadoop-2.7.7/logs/hadoop-hadoop-namenode-mhc-linux.out
localhost: starting datanode, logging to /usr/local/hadoop/hadoop-2.7.7/logs/hadoop-hadoop-datanode-mhc-linux.out
Starting secondary namenodes [localhost]
localhost: starting secondarynamenode, logging to /usr/local/hadoop/hadoop-2.7.7/logs/hadoop-hadoop-secondarynamenode-mhc-linux.out
 
 启动namenode报错

ulimit -a for user root

stop-dfs.sh

这里我们直接重新格式化namenode,然后启动namenode就可以了

 hadoop namenode -format  

$ start-dfs.sh
ps -ef|grep node 有三个进程
proc_namenode proc_datanode proc_secondarynamenode start-yarn.sh 访问http://localhost:8088
 

hadoop2.7.7 测试安装 centos7的更多相关文章

  1. 虚拟机安装CentOS7 Minimal、jdk和hadoop

    虚拟机安装CentOS7 Minimal.jdk和hadoop Table of Contents 1. 安装版本 2. PD安装 3. vim安装和配置 4. 主机名变为bogon的解决办法 5. ...

  2. hadoop2.7.1 HA安装部署(转)

    hadoop集群规划 目标:创建2个NameNode,做高可用,一个NameNode挂掉,另一个能够启动:一个运行Yarn,3台DataNode,3台Zookeeper集群,做高可用. 在 hadoo ...

  3. VMware中安装CentOS7网络配置静态IP地址,常用配置和工具安装

    VMware中安装CentOS7网络配置静态IP地址,常用配置和工具安装在阿里云开源镜像地址下载镜像Index of /centos/7.2.1511/isos/x86_64/http://mirro ...

  4. hadoop2.1.0编译安装教程

    由于现在hadoop2.0还处于beta版本,在apache官方网站上发布的beta版本中只有编译好的32bit可用,如果你直接下载安装在64bit的linux系统的机器上,运行会报一个INFO ut ...

  5. hadoop2.1.0和hadoop2.2.0编译安装教程

    由于现在hadoop2.0还处于beta版本,在apache官方网站上发布的beta版本中只有编译好的32bit可用,如果你直接下载安装在64bit的linux系统的机器上,运行会报一个INFO ut ...

  6. centOS7 mini配置linux服务器(一)安装centOs7

    1. 准备centos-7 (minni镜像) 官网地址http://isoredirect.centos.org/centos/7/isos/x86_64/CentOS-7-x86_64-Minim ...

  7. Vmware安装CentOs7+gitlab(一)

    本篇文章主要介绍了VMware安装Centos7超详细过程(图文),具有一定的参考价值,感兴趣的小伙伴们可以参考一下 1.软硬件准备 软件:推荐使用VMwear,我用的是VMwear 12 镜像:Ce ...

  8. Linux环境搭建 | 手把手教你如何安装CentOS7虚拟机

    centos 下载地址: 可以去官网下载最新版本:https://www.centos.org/download/ 以下针对各个版本的ISO镜像文件,进行一一说明: CentOS-7.0-x86_64 ...

  9. VM安装centos7

    镜像:笔者采用的是CentOS-7-x86_64-Minimal-1810.iso版本 1.创建新的虚拟机 2.典型安装与自定义安装 典型安装:VMwear会将主流的配置应用在虚拟机的操作系统上,对于 ...

随机推荐

  1. es6(10)--Set,Map(1)

    //Set { let list=new Set(); list.add(5);//添加 list.add(7); //属性size就是长度 console.log('size',list.size) ...

  2. day23面向对象编程基础

    面向对象编程基础1.面向过程的编程思想    核心过程二字,过程指的是解决问题的步骤,即先干什么\再干什么\后干什么    基于该思想编写程序就好比在设计一条流水线,是一种机械式的思维方式    优点 ...

  3. JDK源码阅读顺序

      很多java开发的小伙伴都会阅读jdk源码,然而确不知道应该从哪读起.以下为小编整理的通常所需阅读的源码范围. 标题为包名,后面序号为优先级1-4,优先级递减 1.java.lang 1) Obj ...

  4. 转:SQL 操作结果集 -并集、差集、交集、结果集排序

    为了配合测试,特地建了两个表,并且添加了一些测试数据,其中重复记录为东吴的人物. 表:Person_1魏国人物 表:Person_2蜀国人物 A.Union形成并集 Union可以对两个或多个结果集进 ...

  5. gojs 破解版

    a.Hv=d[w.Kg("7eba17a4ca3b1a8346")][w.Kg("78a118b7")](d,w.pm,4,4);a.Hv= function( ...

  6. 前端通过js-xlsx获取Excel完整数据

    <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <title> ...

  7. 第三周C++小结

    其实一些经验或者技巧,都是在作业的过程中搜索得到或者自己领悟出来的. 首先是数值变量与字符变量占用的字节数不同,因此可以用sizeof()函数来判断变量所占字节数判断其类型. 然后是空格的ASCII码 ...

  8. idea 未实现接口红线提示,重复代码波浪线提示,自动换行,控制台输出内容自动换行

    01,Could not autowire. No beans of 'UserMapper' type found 01.1,问题描述,通过反射动态实现的接口在调用时会出现以上提示,常见的如 ORM ...

  9. redisCluster 使用 pipeline功能

    Redis从3.0版本后引入了令人兴奋的cluster集群模式,相信很多人都尝试过了,在高兴之余却发现redis官方的cluster对于Java客户端的jedis支持却不是很好,至少目前的版本clus ...

  10. Linux 用户、权限

    用户:uid  保存在 /etc/passwd 用户分类: 管理员 uid--0 普通用户 --系统用户 uid 1-499 --一般用户  uid 500-60000 组:gid  保存在/etc/ ...