主要包括以下三部分,本文为第二部分:

一. Scala环境准备 查看

二. Hadoop集群(伪分布模式)安装

三. Spark集群(standalone模式)安装 查看

Hadoop集群(伪分布模式)安装

  1. 依赖项:jdk(hadoop与java版本兼容性参考链接)、ssh;

    执行ssh localhost若提示:

    localhost: ssh: connect to host localhost port 22: Connection refused

    则需要:

    a.检查是否安装了openssh,若没有则建议通过brew install openssh安装(需要先安装brew,安装brew前还需要先安装xcode,安装方法见官网,官网的方法若超时,可以先在浏览器中打开curl链接并复制到本地保存(如~/Desktop/install),然后修改安装命令为:

    /usr/bin/ruby -e "$(cat ~/Desktop/install)"

    ),启动方式:

    sudo /usr/sbin/sshd

    若启动失败并提示:

    Could not load host key: /etc/ssh/ssh_host_rsa_key

    Could not load host key: /etc/ssh/ssh_host_dsa_key

    Could not load host key: /etc/ssh/ssh_host_ecdsa_key

    Could not load host key: /etc/ssh/ssh_host_ed25519_key

    则,执行以下操作后重新启动:

    sudo cp ~/.ssh/id_rsa /etc/ssh/ssh_host_rsa

    sudo cp ~/.ssh/id_rsa.pub /etc/ssh/ssh_host_rsa.pub

    启动后通过ps -ef | grep ssh检查ssh服务是否存在

    b.检查是否存在以下文件,且authorized_keys 中包含id_rsa.pub中的内容

    ~/.ssh/id_rsa.pub

    ~/.ssh/id_rsa

    ~/.ssh/authorized_keys

    若没有id_rsa.*文件,则执行以下操作:

    ssh-keygen -t rsa

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    chmod 0600 ~/.ssh/authorized_keys

  2. 修改/etc/hosts文件(可选)

    添加本机ip到localhost的映射(sudo vim /etc/hosts),如下所示:

    xx.xx.xx.xx    localhost

    这一步是为了可以使用形如:hdfs://xx.xx.xx.xx:9000/file/path的格式访问hdfs,否则只能使用localhost。

  3. 下载hadoop-2.7.6安装包,解压到~/tools/hadoop-2.7.6

  4. 修改配置

    a.etc/hadoop/core-site.xml中添加如下配置:

        <configuration>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
    </property>
    </configuration>
    ``` b.etc/hadoop/hdfs-site.xml中添加如下配置:
    ```xml
    <configuration>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </configuration>
    ``` <b>以上为hdfs相关配置,若要使用yarn,还需进行以下配置</b>
    c.拷贝etc/hadoop/mapred-site.xml.template到etc/hadoop/mapred-site.xml并添加如下配置:
    ```xml
    <configuration>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    </configuration>
    ``` d.etc/hadoop/yarn-site.xml中添加如下配置:
    ```xml
    <configuration>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>
    </configuration>
    ``` 注:默认存储路径为/tmp/hadoop-&lt;username&gt;/,可以通过配置 “dfs.namenode.name.dir”、 “dfs.datanode.data.dir” 显式指定,参考[文档](http://hadoop.apache.org/docs/r2.7.6/hadoop-project-dist/hadoop-common/ClusterSetup.html#Configuring_the_Hadoop_Daemons "文档");
  5. 启动服务

    a.格式化namenode

    ./bin/hdfs namenode -format

    b.启动HDFS

    ./sbin/start-dfs.sh

    c.若要启用历史任务服务,执行以下命令:

    ./sbin/mr-jobhistory-daemon.sh start historyserver

    d.若要使用yarn,执行以下命令

    ./sbin/start-yarn.sh

    启动后通过jps命令查看启动的服务,应包含:DataNode、NameNode、SecondaryNameNode(若启动了yarn,还包括:NodeManager、ResourceManager;若启动了历史服务,还包括:JobHistoryServer);

  6. 通过以下网址查看服务状态

    a.历史任务:http://localhost:19888/

    b.集群状态:http://localhost:8088/

    c.NameNode状态:http://localhost:50070/

  7. 测试

    通过以下命令测试hdfs是否可用:

    ./bin/hadoop fs -ls /

    ./bin/hadoop fs -ls hdfs://localhost:9000/

    ./bin/hadoop fs -ls hdfs://xx.xx.xxx.xxx:9000/

    ./bin/hdfs dfs -ls /

    ./bin/hdfs dfs -ls hdfs://localhost:9000/

    ./bin/hdfs dfs -ls hdfs://xx.xx.xxx.xxx:9000/

    若服务可用,需要创建以下目录:

    hdfs://localhost:9000/user/<username>

  8. 停止服务

    可将以下命令写入stop.sh批量执行:

    ./sbin/stop-dfs.sh

    ./sbin/stop-yarn.sh

    ./sbin/mr-jobhistory-daemon.sh stop historyserver

注:若配置了yarn(4.c),则官网中下面的例子是无法成功执行的;若只配置了hdfs(4.a,4.b),是没有问题的:

    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.6.jar grep input output 'dfs[a-z.]+'

参考文档:官方文档

Spark新手入门——2.Hadoop集群(伪分布模式)安装的更多相关文章

  1. 3-2 Hadoop集群伪分布模式配置部署

    Hadoop伪分布模式配置部署 一.实验介绍 1.1 实验内容 hadoop配置文件介绍及修改 hdfs格式化 启动hadoop进程,验证安装 1.2 实验知识点 hadoop核心配置文件 文件系统的 ...

  2. Hadoop集群搭建-05安装配置YARN

    Hadoop集群搭建-04安装配置HDFS  Hadoop集群搭建-03编译安装hadoop Hadoop集群搭建-02安装配置Zookeeper Hadoop集群搭建-01前期准备 先保证集群5台虚 ...

  3. Hadoop集群搭建-04安装配置HDFS

    Hadoop集群搭建-05安装配置YARN Hadoop集群搭建-04安装配置HDFS  Hadoop集群搭建-03编译安装hadoop Hadoop集群搭建-02安装配置Zookeeper Hado ...

  4. Hadoop集群搭建-02安装配置Zookeeper

    Hadoop集群搭建-05安装配置YARN Hadoop集群搭建-04安装配置HDFS  Hadoop集群搭建-03编译安装hadoop Hadoop集群搭建-02安装配置Zookeeper Hado ...

  5. 大数据初级笔记二:Hadoop入门之Hadoop集群搭建

    Hadoop集群搭建 把环境全部准备好,包括编程环境. JDK安装 版本要求: 强烈建议使用64位的JDK版本,这样的优势在于JVM的能够访问到的最大内存就不受限制,基于后期可能会学习到Spark技术 ...

  6. 使用Docker搭建Hadoop集群(伪分布式与完全分布式)

    之前用虚拟机搭建Hadoop集群(包括伪分布式和完全分布式:Hadoop之伪分布式安装),但是这样太消耗资源了,自学了Docker也来操练一把,用Docker来构建Hadoop集群,这里搭建的Hado ...

  7. 大数据系列(5)——Hadoop集群MYSQL的安装

    前言 有一段时间没写文章了,最近事情挺多的,现在咱们回归正题,经过前面四篇文章的介绍,已经通过VMware安装了Hadoop的集群环境,相关的两款软件VSFTP和SecureCRT也已经正常安装了. ...

  8. hadoop集群监控工具ambari安装

    Apache Ambari是对Hadoop进行监控.管理和生命周期管理的基于网页的开源项目.它也是一个为Hortonworks数据平台选择管理组建的项目.Ambari支持管理的服务有: Apache ...

  9. 基于Hadoop集群搭建Hive安装与配置(yum插件安装MySQL)---linux系统《小白篇》

    用到的安装包有: apache-hive-1.2.1-bin.tar.gz mysql-connector-java-5.1.49.tar.gz 百度网盘链接: 链接:https://pan.baid ...

随机推荐

  1. ssms创建链接服务器

  2. JavaScript 变量的作用域名

    在JavaScript中,用var申明的变量实际上是有作用域的. 如果一个变量在函数体内部申明,则该变量的作用域为整个函数体,在函数体外不可引用该变量: 'use strict'; function ...

  3. 数据库-mysql语句-查-WEB服务器

    (1)MySQL中的查询 (2)WEB服务器 Order:  订单.排序 Set:设置.集合 Table:表.桌子 1.MySQL中的简单查询 —— 查询结果的排序 示例:查询出所有员工信息,要求按工 ...

  4. 08-jQuery的位置信息

    Query的位置信息跟JS的client系列.offset系列.scroll系列封装好的一些简便api. 一.宽度和高度 获取宽度 .width() 描述:为匹配的元素集合中获取第一个元素的当前计算宽 ...

  5. SSM_CRUD新手练习(9)显示分页数据

    我们已经做好了用来显示数据的分页模板,现在只需要将我们从后台取出的数据填充好,显示出来. 我们使用<c:forEach>标签循环取出数据,所以需要先导入JSTL标签库 <%@ tag ...

  6. OpenCV从2到3的过渡

    与版本2.4相比,OpenCV 3.0引入了许多新算法和功能.有些模块已被重写,有些已经重组.尽管2.4中的大多数算法仍然存在,但接口可能不同.本节描述了一般性的最显着变化,过渡操作的所有细节和示例都 ...

  7. 595. Big Countries --- SQL related from leetcode

    595. Big Countries There is a table World +-----------------+------------+------------+------------- ...

  8. [数据清洗]-Pandas 清洗“脏”数据(一)

    概要 准备工作 检查数据 处理缺失数据 添加默认值 删除不完整的行 删除不完整的列 规范化数据类型 必要的转换 重命名列名 保存结果 更多资源 Pandas 是 Python 中很流行的类库,使用它可 ...

  9. kernel解析dtb为节点

    title: 解析dtb为节点 date: 2019/4/26 14:02:18 toc: true --- kernel解析dtb为节点 head.s入口传递 回顾 看以前的笔记 kernel(二) ...

  10. 你可能不知道的viewport

    概述 前几天偶然看到一个pc端网页,发现用手机打开竟然同比缩放了,作为一个前端从业者,我自然想要弄清它到底是怎么缩放的.之后查了它的meta信息,css和js,发现没有任何兼容手机端的代码,那它到底是 ...