HDP(Hortonworks Data Platform)是hortworks推出的100%开源的hadoop发行版本,以YARN 作为其架构中心,包含pig、hive、phoniex、hbase、storm、spark等大量组件,在最新的2.4版本,监控UI实现与grafana集成,包含组件版本对应图如下:(图片来自hortonwork官网)

安装过程:

  • 集群规划
  • 环境准备
  • 软件包下载:  (HDP2.4的安装包过大,推荐离线安装)
  • HDP安装部署

集群规划:

  • 192.168.2.89   hdp1     (ambari)
  • 192.168.2.2     hdp2     (worknode1)
  • 192.168.2.99   hdp3     (worknode2)
  • 192.168.2.21   hdp4     (masterNode)
  • 192.168.2.169 R          (secondary master、zookeeper)

环境准备:

  • 所有节点操作系统安装完成后,hdp1用来部署本地安装下载源,要求所有节点均能通过ssh无密访问
  • 在hdp1机器上,执行命令:vim /etc/hosts   配置文件内容如下图. (要求所有节点机器的hosts文件内容均是如此)
  • hdp1.命令: cd  ~/.ssh    (切换目录)
  • hdp1.命令:ssh-copy-id hdp1   (配置hdp1能无密访问所有节点)
  • hdp1.命令:ssh-copy-id hdp2
  • hdp1.命令:ssh-copy-id hdp3
  • hdp1.命令:ssh-copy-id hdp4
  • hdp1.命令:ssh-copy-id R
  • 注意:其它节点的机器如上配置,必须保证能无密访问hdp1
  • 将hdp安装包上传至hdp1服务器,并切换至该目录(如:/usr/zhu)
  • 命令: tar -zxvf HDP-2.4.2.0-centos7-rpm.tar.gz   (安装包文件解压)
  • 命令: tar -zxvf HDP-UTILS-1.1.0.20-centos7.tar.gz
  • 将解压后的生成的 HDP 和 HDP-UTILS-1.1.0.20 目录copy 到 /var/www/html 目录下
  • 手工创建名为 hdp.rpo 的文件,内容如下 (http://192.168.2.89为安装ambari的机器IP
    [HDP-2.4.2.0]
    name=HDPVersion-HDP-2.4.2.0
    baseurl=http://192.168.2.89/HDP/centos7/2.x/updates/2.4.2.0
    gpgcheck=1
    gpgkey=http://public-repo-1.hortonworks.com/HDP/centos7/2.x/updates/2.4.2.0/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
    enabled=1
    priority=1
  • 注意:baseurl 的地址必须与物理的文件能对应起来(即:http://192.168.2.89/HDP/centos7/2.x/updates/2.4.2.0能正确访问)
  • 同样方式,手工创建名为 hdp-util.repo 的文件,内容如下:
    [HDP-UTILS-1.1.0.20]
    name=HDPUtilsVersion-HDP-UTILS-1.1.0.20
    baseurl=http://192.168.2.89/HDP-UTILS-1.1.0.20/repos/centos7
    gpgcheck=1
    gpgkey=http://public-repo-1.hortonworks.com/HDP/centos7/2.x/updates/2.4.2.0/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
    enabled=1
    priority=1
  • 将 hdp.rpo 和 hdp-util.repo 文件上传至 /etc/yum.repos.d 目录,如下图:
  • 将上传至 hdp1 服务器上的 rpo 文件分发至集群内其它机器节点的相同目录,命令如下:
  • hdp1命令: cd /etc/yum.repos.d
  • hdp1命令: scp hdp.repo hdp-util.repo hdp2:/etc/yum.repos.d  (将文件copy至hdp2)
  • hdp1命令: scp hdp.repo hdp-util.repo hdp3:/etc/yum.repos.d
  • hdp1命令: scp hdp.repo hdp-util.repo hdp4:/etc/yum.repos.d
  • hdp1命令: scp hdp.repo hdp-util.repo R:/etc/yum.repos.d

HDP安装:

  • 在任意机器浏览器上打开ambari web 界面 (http://192.168.2.89:8080   user:admin  psd:admin)
  • 在主页面 ”Create a Cluster“ 版板,选择 ”Launch Install Wizard“,如图:
  • 按向导输入集群名
  • 选择hdp2.4, 我们采用离线安装,在高级选项中将 redhat7 以外的其它选项全部去掉,同时配置本地源地址(对应repo文件中baseUrl地址),如下:
  • 将ambari主机上生成的私钥文件下载到本地 (使用 sz 命令或 winSCP 工具 )
  • 在下一步中输入主机列表(hdp要求带FQDN的机器名,可不用理会),输入机器列表,导入私钥,如下图
  • 选择"Register and Confirm", 忽略弹出的警告提示,继续如下图:
  • 选择 "Next",  进入需要安装的服务选择模板(我主要是为了建HBase集群),选择的服务如下:
  • 选择 ”Next“, 进行服务与主机分配,如下图:
  • "Next" -> 进入 Slaves and client 分配,如下图:
  • ”Next" -> 进入 Customize Services 定义,给 hive metastore 分配数据库,输入数据库名、用户和密码(bigdata)
  • 点击 " Test Connection", 肯定是连不上的,手工创建数据库和用户

  • 执行:create database hive;    (创建hive数据库)
  • 执行:GRANT ALL PRIVILEGES ON hive.* TO 'hive'@'localhost' IDENTIFIED BY 'bigdata'; (创建hive用户)
  • 执行:GRANT ALL PRIVILEGES ON hive.* TO 'hive'@'%' IDENTIFIED BY 'bigdata';
  • 执行:FLUSH PRIVILEGES;  (刷新权限)
  • 执行:quit;

  • 命令:service mysql restart;
  • 验证:mysql -u hive -p     (成功登陆则OK)

  • 点击 " Test Connection", 如上图则OK
  • ambari 监控UI 工具 admin 赋 密码(bigdata),如图:
  • "Next", 在服务安装清单界面,确认无误后,选择 ”Deploy"
  • 等待系统安装,安装结束后如图:
  • 出现如下界面,则表示安装ok

HDP2.4安装(五):集群及组件安装的更多相关文章

  1. Spark新手入门——3.Spark集群(standalone模式)安装

    主要包括以下三部分,本文为第三部分: 一. Scala环境准备 查看二. Hadoop集群(伪分布模式)安装 查看三. Spark集群(standalone模式)安装 Spark集群(standalo ...

  2. Centos7.5安装kafka集群

    Tags: kafka Centos7.5安装kafka集群 Centos7.5安装kafka集群 主机环境 软件环境 主机规划 主机安装前准备 安装jdk1.8 安装zookeeper 安装kafk ...

  3. Centos 6.5 Rabbitmq 安装和集群,镜像部署

    centos 6.5 rabbitmq 安装和集群,镜像部署 安装erlang: yum install gcc glibc-devel make ncurses-devel openssl-deve ...

  4. CentOS 7.5 使用 yum 安装 Kubernetes 集群(二)

    一.安装方式介绍 1.yum 安装 目前CentOS官方已经把Kubernetes源放入到自己的默认 extras 仓库里面,使用 yum 安装,好处是简单,坏处也很明显,需要官方更新 yum 源才能 ...

  5. Kubernetes(K8s) 安装(使用kubeadm安装Kubernetes集群)

    背景: 由于工作发生了一些变动,很长时间没有写博客了. 概述: 这篇文章是为了介绍使用kubeadm安装Kubernetes集群(可以用于生产级别).使用了Centos 7系统. 一.Centos7 ...

  6. Kubernetes全栈架构师(Kubeadm高可用安装k8s集群)--学习笔记

    目录 k8s高可用架构解析 Kubeadm基本环境配置 Kubeadm系统及内核升级 Kubeadm基本组件安装 Kubeadm高可用组件安装 Kubeadm集群初始化 高可用Master及Token ...

  7. centos7.0 安装redis集群

    生产环境下redis基本上都是用的集群,毕竟单机版随时都可能挂掉,风险太大.这里我就来搭建一个基本的redis集群,功能够用但是还需要完善,当然如果有钱可以去阿里云买云数据库Redis版的,那个还是很 ...

  8. 安装ClouderaManager以及使用ClouderaManager安装分布式集群的若干细节

    目录 前言 整体介绍 分步安装介绍 总结 一.前言        周末干了近四十个小时中间只休息了五个小时终于成功安装了ClouderaManager以及分布式集群,其中各种辛酸无以言表,唯有泪两行. ...

  9. 在Hadoop1.2.1分布式集群环境下安装hive0.12

    在Hadoop1.2.1分布式集群环境下安装hive0.12 ● 前言: 1. 大家最好通读一遍过后,在理解的基础上再按照步骤搭建. 2. 之前写过两篇<<在VMware下安装Ubuntu ...

随机推荐

  1. Smart210学习记录-------Linux设备驱动结构

    cdev结构体 1 struct cdev { 2 struct kobject kobj; /* 内嵌的 kobject 对象 */ 3 struct module *owner; /*所属模块*/ ...

  2. css中的width,height,属性与盒模型的关系

    这段话很容易记住盒模型: css中盒子模型包含属性margin.border.padding.content,他们可以把它转移到我们日常生活中的盒子(箱 子)上来理解,日常生活中所见的盒子也具有这些属 ...

  3. 用Xshell访问 虚拟机里的kali

    1.vim /etc/ssh/sshd_config 2.PermitRootLogin without-password复制 3.把一个PermitRootLogin without-passwor ...

  4. typeof、offsetof、container_of的解释

    链表是内核最经典的数据结构之一,说到链表就不得不提及内核最经典(没有之一)的宏container_of. container_of似乎就是为链表而生的,它的主要作用是根据一个结构体变量中的一个域成员变 ...

  5. the grave of my scripts

    不定期更新.......... 1,fetch_seq.py https://github.com/freemao/AHRD/blob/master/fetch_seq.py 提取出你想要得染色体的某 ...

  6. CSS Flex弹性布局

    关于css3的flex布局,阮一峰老师的文章写的清晰易懂又全面,这里附上链接http://www.ruanyifeng.com/blog/2015/07/flex-grammar.html?utm_s ...

  7. JavaWeb学习记录(二十四)——获取插入数据后,自动生成的id值

    public Integer insertObjects(final Goods entity) { // 定义sql语句        final String sql1 = "inser ...

  8. PHP 的 HMAC_SHA1算法 实现

    根据RFC 2316(Report of the IAB,April 1998),HMAC(散列消息身份验证码: Hashed Message Authentication Code)以及IPSec被 ...

  9. IOS中打开应用实现检查更新的功能

    //检查更新页面 - (void)Renew{        NSDictionary *infoDic = [[NSBundle mainBundle]infoDictionary];        ...

  10. AI编辑SVG格式的相关问题

    制作SVG:1.需要给每个图层命名,生成的SVG文件的(表示一个路径,另外还有标签等)标签就会有个id属性是这个图层的名字2.保存的时候内嵌文字可以保存为SVG或转为path格式,如果没有文字,则无所 ...