1.rz命令将hadoop压缩包上传至Linux服务器中

2.tar -zxvf hadoop-2.7.7.tar.gz(解压即可用)

3.将解压出来的hadoop移到想要放的位置 mv hadoop-2.7.7 ../software

4.配置六个文件

  配置文件在etc目录下

1.hadoop-env.sh

    cd /opt/software/hadoop-2.7.7

    vim etc/hadoop/hadoop-env.sh

    export JAVA_HOME=/opt/software/jdk1.8    #修改25行

    export HADOOP_CONF_DIR=/opt/software/hadoop-2.7.7/etc/hadoop    #修改33行

  2.core-site.xml

    <configuration>

      <!--指定HDFS中NameNode的地址-->

      <property>

        <name>fs.defalutFS</name>

        <value>hdfs://主机名:9000</value>

      </property>

      <!--指定hadoop运行是产生文件的存储目录-->

      <property>

        <name>hadoop.tmp.dir</name>

        <value>/opt/software/hadoop-2.7.7/tmp</value>

      </property>

    </configuration>

  3.hdfs-site.xml

    <configuration>

      <!--指定HDFS副本的数量-->

      <property>

        <name>dfs.replication</name>

        <value>1</value>

      </property>

      

      <property>

        <name>dfs.permissions</name>

        <value>false</value>

      </property>

    </configuration>

  4.mapred-site.xml

    <configuration>

      <!--指定mr运行在yarn上-->

      <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

      </property>

    </configuration>

  5.yarn-site.xml

    <configuration>

      <!--指定yarn的ResourceManager的地址-->

      <property>

        <name>yarn.resourcemanager.hostname</name>

        <value>主机名</value>

      </property>

      <!--指定reduce获取数据的方式-->

      <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

      </property>

    </configuration>

  5.slaves

    主机名

5.给hadoop配置环境变量

vim /etc/profile

  JAVA_HOME=/opt/software/jdk1.8

  HADOOP_HOME=/opt/software/hadoop-2.7.7

  PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

  

  source /etc/profile

6.修改主机映射

vim /etc/hosts

  192.168.2.121  主机名

7.格式化文件系统

hadoop namenode -format

8.关闭安全相关

systemctl stop firewalld
systemctl disable firewalld //关闭防火墙 vim /etc/selinux/config
SELINUX=disabled systemctl stop NetworkManager
systemctl disable NetworkManager

9.启动hadoop服务

start-all.sh            //启动所有

stop-all.sh(关闭hadoop)

hadoop-daemon.sh start namenode  //启动NameNode

hadoop-daemon.sh start datanode    //启动DataNode

yarn-daemon.sh start resourcemanager  //启动ResourceManager

yarn-daemon.sh start nodemanager    //启动NodeManager

10.WEB端查看

http://192.168.2.121:50070        //查看NameNode的状态
http://192.168.2.121:50075 //查看DataNode的状态
http://192168.2.121:50090 //查看SecondaryNameNode的状态

11.HDFS的一些方法

1.创建文件
  hadoop fs -mkdir -p /user/upload
2.上传文件
  hadoop fs -put 需上传的文件路径 /user/upload
3.下载文件
  hadoop fs -get 需下载的文件路径
4.查看文件
  hadoop fs -ls 路径
4.删除文件
  hadoop fs -rm 路径

注意事项:

1.多次使用hadoop namenode -format格式化时会造成spaceID不一致,启动不了datanode节点
解决方案:
  1.停止集群
    stop-all.sh
  2.删除在hdfs中配置的data目录(即在core-site.xml中配置的hadoop.tmp.dir对应文件夹)下面的所有数据
    rm -rf tmp
  3.重新格式化namenode
    hdfs namenode -format    或者    hadoop namenode -format
  4.重新启动hadoop集群
    start-all.sh

01初步启动Hadoop服务的更多相关文章

  1. 使用ansible控制Hadoop服务的启动和停止

    一.环境: 服务器一台,已安装centos7.5系统,做ansible服务器: 客户机三台:hadoop-master(192.168.1.18).hadoop-slave1(192.168.1.19 ...

  2. 指导手册01:安装Hadoop

    指导手册01:安装Hadoop  Part 1:安装及配置虚拟机 1.安装Linux. (1)打开VMvirtualBox (2) 控制->新建虚拟机,输入虚拟机名称“marst+学号” 类型: ...

  3. Windows 共享无线上网 无法启动ICS服务解决方法(WIN7 ICS服务启动后停止)

    Windows 共享无线上网 无法启动ICS服务解决方法(WIN7 ICS服务启动后停止) ICS 即Internet Connection Sharing,internet连接共享,可以使局域网上其 ...

  4. 启动Hadoop HA Hbase zookeeper spark

    服务器角色 服务器 192.168.58.180 192.168.58.181 192.168.58.182 192.168.58.183 Name CentOSMaster Slvae1 Slave ...

  5. mysql-5.7.10-winx64 MySQL服务无法启动,服务没有报告任何错误的解决办法

      总结报错原因:在my.init文件下新增data目录(datadir = F:\mysqldata ) 最新解压版本的mysql 解压安装的时候报错D:\mysql\mysql-5.7.10-wi ...

  6. Windows下命令行下启动ORACLE服务

    检查监听器状态:C:\>lsnrctl statusLSNRCTL for 32-bit Windows: Version 9.2.0.1.0 - Production on 30-6月 -20 ...

  7. hadoop集群搭建--CentOS部署Hadoop服务

    在了解了Hadoop的相关知识后,接下来就是Hadoop环境的搭建,搭建Hadoop环境是正式学习大数据的开始,接下来就开始搭建环境!我们用到环境为:VMware 12+CentOS6.4 hadoo ...

  8. Hadoop服务库与事件库的使用及其工作流程

    Hadoop服务库与事件库的使用及其工作流程   Hadoop服务库: YARN采用了基于服务的对象管理模型,主要特点有: 被服务化的对象分4个状态:NOTINITED,INITED,STARTED, ...

  9. CDH 5.16.1 离线部署 & 通过 CDH 部署 Hadoop 服务

    参考 Cloudera Enterprise 5.16.x Installing Cloudera Manager, CDH, and Managed Services Installation Pa ...

随机推荐

  1. dk7和jdk8的一些新特性

    本文是我学习了解了j 的一些资料,有兴趣的大家可以浏览下下面的内容. 官方文档:http://www.oracle.com/technetwork/java/javase/jdk7-relnotes- ...

  2. 搭建vue工程遇到的问题汇总

    1.vue搭建环境- vue init webpack my-project无响应(如下报错) 原因:node 版本过高.v8.1.0 解决拌饭: 降级,终端指令 n v8.0.0; mac用户: s ...

  3. Coursera-吴恩达机器学习课程笔记-Week1

    参考资料: 吴恩达教授机器学习课程 机器学习课程中文笔记 Week 1 一. 引言 机器学习模型可分为监督学习Superviese learning(每个数据集给出了正确的值)和无监督学习Unsupe ...

  4. 3、示例(在java中使用JSON)

    教程链接(json-smple1.1.1.jar文件) 链接:http://pan.baidu.com/s/1qXPbYHm 密码:v0f0 如何使用java编程语言编码和解码JSON 首先准备环境以 ...

  5. BZOJ 3262: 陌上花开 (cdq分治,三维偏序)

    #include <iostream> #include <stdio.h> #include <algorithm> using namespace std; c ...

  6. django模块导入/函数/中间件/MVC和MTV/CSRF

    目录 一:模块导入 二:函数 三:中间件 四:MVC和MTV 五:csrf 一:模块导入 第一种:继承 这里的母版更像是一个架子,子板都是定义的内容(如果多个页面中 ,存在相同的页面:这样我们可以抽到 ...

  7. ubuntu16 安装opencv3.4.2

    下载好opencv3.4.2.zip 执行命令: unzip opencv3.4.2.zip 进入解压后的文件夹: cd opencv3.4.2/ 创建编译路径: mkdir release 进入新创 ...

  8. 【C语言】将输入的10个数排序

    代码: #include <stdio.h> int main() { ], t; int i, j, max; printf("请输入10个数:\n"); ; i & ...

  9. pycharm如何关闭虚拟环境(即取消venv命令行)

    venv命令行 是虚拟环境特有, 为什么要使用虚拟环境: 在实际项目开发中,我们通常会根据自己的需求去下载各种相应的框架库,如Scrapy.Beautiful Soup等,但是可能每个项目使用的框架库 ...

  10. pycharm连接数据库报错Access denied for user 'root'@'localhost' (using password:YES),以及wampserver 2/3个服务器正在运行 问题

    使用mysql版本为mysql5.7,参考下列 https://blog.csdn.net/qq_32969455/article/details/79051932 https://blog.csdn ...