1.rz命令将hadoop压缩包上传至Linux服务器中

2.tar -zxvf hadoop-2.7.7.tar.gz(解压即可用)

3.将解压出来的hadoop移到想要放的位置 mv hadoop-2.7.7 ../software

4.配置六个文件

  配置文件在etc目录下

1.hadoop-env.sh

    cd /opt/software/hadoop-2.7.7

    vim etc/hadoop/hadoop-env.sh

    export JAVA_HOME=/opt/software/jdk1.8    #修改25行

    export HADOOP_CONF_DIR=/opt/software/hadoop-2.7.7/etc/hadoop    #修改33行

  2.core-site.xml

    <configuration>

      <!--指定HDFS中NameNode的地址-->

      <property>

        <name>fs.defalutFS</name>

        <value>hdfs://主机名:9000</value>

      </property>

      <!--指定hadoop运行是产生文件的存储目录-->

      <property>

        <name>hadoop.tmp.dir</name>

        <value>/opt/software/hadoop-2.7.7/tmp</value>

      </property>

    </configuration>

  3.hdfs-site.xml

    <configuration>

      <!--指定HDFS副本的数量-->

      <property>

        <name>dfs.replication</name>

        <value>1</value>

      </property>

      

      <property>

        <name>dfs.permissions</name>

        <value>false</value>

      </property>

    </configuration>

  4.mapred-site.xml

    <configuration>

      <!--指定mr运行在yarn上-->

      <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

      </property>

    </configuration>

  5.yarn-site.xml

    <configuration>

      <!--指定yarn的ResourceManager的地址-->

      <property>

        <name>yarn.resourcemanager.hostname</name>

        <value>主机名</value>

      </property>

      <!--指定reduce获取数据的方式-->

      <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

      </property>

    </configuration>

  5.slaves

    主机名

5.给hadoop配置环境变量

vim /etc/profile

  JAVA_HOME=/opt/software/jdk1.8

  HADOOP_HOME=/opt/software/hadoop-2.7.7

  PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

  

  source /etc/profile

6.修改主机映射

vim /etc/hosts

  192.168.2.121  主机名

7.格式化文件系统

hadoop namenode -format

8.关闭安全相关

systemctl stop firewalld
systemctl disable firewalld //关闭防火墙 vim /etc/selinux/config
SELINUX=disabled systemctl stop NetworkManager
systemctl disable NetworkManager

9.启动hadoop服务

start-all.sh            //启动所有

stop-all.sh(关闭hadoop)

hadoop-daemon.sh start namenode  //启动NameNode

hadoop-daemon.sh start datanode    //启动DataNode

yarn-daemon.sh start resourcemanager  //启动ResourceManager

yarn-daemon.sh start nodemanager    //启动NodeManager

10.WEB端查看

http://192.168.2.121:50070        //查看NameNode的状态
http://192.168.2.121:50075 //查看DataNode的状态
http://192168.2.121:50090 //查看SecondaryNameNode的状态

11.HDFS的一些方法

1.创建文件
  hadoop fs -mkdir -p /user/upload
2.上传文件
  hadoop fs -put 需上传的文件路径 /user/upload
3.下载文件
  hadoop fs -get 需下载的文件路径
4.查看文件
  hadoop fs -ls 路径
4.删除文件
  hadoop fs -rm 路径

注意事项:

1.多次使用hadoop namenode -format格式化时会造成spaceID不一致,启动不了datanode节点
解决方案:
  1.停止集群
    stop-all.sh
  2.删除在hdfs中配置的data目录(即在core-site.xml中配置的hadoop.tmp.dir对应文件夹)下面的所有数据
    rm -rf tmp
  3.重新格式化namenode
    hdfs namenode -format    或者    hadoop namenode -format
  4.重新启动hadoop集群
    start-all.sh

01初步启动Hadoop服务的更多相关文章

  1. 使用ansible控制Hadoop服务的启动和停止

    一.环境: 服务器一台,已安装centos7.5系统,做ansible服务器: 客户机三台:hadoop-master(192.168.1.18).hadoop-slave1(192.168.1.19 ...

  2. 指导手册01:安装Hadoop

    指导手册01:安装Hadoop  Part 1:安装及配置虚拟机 1.安装Linux. (1)打开VMvirtualBox (2) 控制->新建虚拟机,输入虚拟机名称“marst+学号” 类型: ...

  3. Windows 共享无线上网 无法启动ICS服务解决方法(WIN7 ICS服务启动后停止)

    Windows 共享无线上网 无法启动ICS服务解决方法(WIN7 ICS服务启动后停止) ICS 即Internet Connection Sharing,internet连接共享,可以使局域网上其 ...

  4. 启动Hadoop HA Hbase zookeeper spark

    服务器角色 服务器 192.168.58.180 192.168.58.181 192.168.58.182 192.168.58.183 Name CentOSMaster Slvae1 Slave ...

  5. mysql-5.7.10-winx64 MySQL服务无法启动,服务没有报告任何错误的解决办法

      总结报错原因:在my.init文件下新增data目录(datadir = F:\mysqldata ) 最新解压版本的mysql 解压安装的时候报错D:\mysql\mysql-5.7.10-wi ...

  6. Windows下命令行下启动ORACLE服务

    检查监听器状态:C:\>lsnrctl statusLSNRCTL for 32-bit Windows: Version 9.2.0.1.0 - Production on 30-6月 -20 ...

  7. hadoop集群搭建--CentOS部署Hadoop服务

    在了解了Hadoop的相关知识后,接下来就是Hadoop环境的搭建,搭建Hadoop环境是正式学习大数据的开始,接下来就开始搭建环境!我们用到环境为:VMware 12+CentOS6.4 hadoo ...

  8. Hadoop服务库与事件库的使用及其工作流程

    Hadoop服务库与事件库的使用及其工作流程   Hadoop服务库: YARN采用了基于服务的对象管理模型,主要特点有: 被服务化的对象分4个状态:NOTINITED,INITED,STARTED, ...

  9. CDH 5.16.1 离线部署 & 通过 CDH 部署 Hadoop 服务

    参考 Cloudera Enterprise 5.16.x Installing Cloudera Manager, CDH, and Managed Services Installation Pa ...

随机推荐

  1. 数据查询SELECT FROM

    [1]指定查询字段数据 SELECT  id,name,job FROM    stu_info;      #指定查询id,name,job字段的信息. SELECT  name FROM    s ...

  2. jquer_shijian 增加初始化 年月日 及 结束时间 年月日

    增加了插件 在初始化的时候,控制 年月日,和结束 年月日 $(time_createobj).siblings(".xtw_budget_userdatafn_hide").shi ...

  3. Linux Ubuntu运行线程程序出现undefined reference to ‘pthread_create’和undefined reference to ‘pthread_join’错误。

    Linux Ubuntu运行线程程序出现undefined reference to ‘pthread_create’和undefined reference to ‘pthread_join’错误. ...

  4. Navicat Premium 12安装、激活

    Navicat Premium 12安装 Navicat Premium 12激活

  5. .Net Core 认证组件之Cookie认证组件解析源码

    接着上文.Net Core 认证系统源码解析,Cookie认证算是常用的认证模式,但是目前主流都是前后端分离,有点鸡肋但是,不考虑移动端的站点或者纯管理后台网站可以使用这种认证方式.注意:基于浏览器且 ...

  6. MongoDB - 将查询结果保存到excel文件中

    import pymongo import re client = pymongo.MongoClient('127.0.0.1', 27017) db_name = 'Trade' db = cli ...

  7. 2、介绍在TensorFlow当中使用不同的方式创建张量tensor

    import tensorflow as tf from tensorflow.python.framework import ops ops.reset_default_graph() #开始一个计 ...

  8. nginx 解决 connect() failed (111: Connection refused) while connecting to upstream,

    嗯哼,刚装了个ubuntu的lnmp,我的天啊,踩的坑比我脂肪还多了 比如刚装完的时候访问显示502, 也不知道什么问题,就去看了一下nginx日志  /var/log/nginx/error.log ...

  9. Android学习04

    Toast Toast是Android系统提供的一种非常好的提示方式,在程序中可以使用它将一些短小的信息通知给用户,这些信息会在一段时间后自动消失,并且不会占用任何的屏幕空间. 1.默认Toast 在 ...

  10. 正则去掉 html标签

    var htmlStr='<p class="cjk" style="margin-bottom: 0cm; line-height: 16px;"> ...