一、 HAWQ2.3.0环境准备【全部主机节点】:

1, vim /etc/sysctl.conf,编辑如下内容:

kernel.shmmax=
kernel.shmmni=
kernel.shmall=
kernel.sem=
kernel.sysrq=
kernel.core_uses_pid=
kernel.msgmnb=
kernel.msgmax=
kernel.msgmni=
net.ipv4.tcp_syncookies=
net.ipv4.ip_forward=
net.ipv4.conf.default.accept_source_route=
net.ipv4.tcp_tw_recycle=
net.ipv4.tcp_max_syn_backlog=
net.ipv4.conf.all.arp_filter=
net.ipv4.ip_local_port_range=
net.core.netdev_max_backlog=
vm.overcommit_memory=
fs.nr_open=
kernel.threads-max=
kernel.pid_max=
#increase network
net.core.rmem_max=
net.core.wmem_max=

保存退出后,使用命令“sysctl -p” 使之生效:

sysctl -p

2, vim /etc/security/limits.conf 编辑如下内容:

* soft nofile
* hard nofile
* soft nproc
* hard nproc

重新登录以使配置生效,或者使用命令临时设置一下:

ulimit -n 10240

3, 添加gpadmin用户(greeplum admin缩写),使用/opt/gpadmin作为主目录

useradd --home=/opt/gpadmin/ --no-create-home --comment "HAWQ admin" gpadmin
echo gpadmin | passwd --stdin gpadmin
mkdir /opt/gpadmin
chown gpadmin:gpadmin /opt/gpadmin

2,添加gpadmin到/etc/sudoers,编辑该文件,添加如下行

gpadmin ALL=(ALL) NOPASSWD:ALL

3, 配置gpadmin用户的ssh【免密互访】
4, 准备软件包依赖项:
libgsasl is needed by apache-hawq-2.3.0.0-el7.x86_64
protobuf >= 2.5.0 is needed by apache-hawq-2.3.0.0-el7.x86_64
net-snmp-libs is needed by apache-hawq-2.3.0.0-el7.x86_64
thrift >= 0.9.1 is needed by apache-hawq-2.3.0.0-el7.x86_64
boost >= 1.53.0 is needed by apache-hawq-2.3.0.0-el7.x86_64
其中gcc gcc-c++ protobuf net-snmp-libs boots可直接安装。而安装libgsasl需要添加一个包含libgsasl库的源:新建/etc/yum.repos.d/fedora.repo文件,添加如下内容:

[epel-repo]
name=epel
baseurl=http://dl.fedoraproject.org/pub/epel/6/x86_64/
enabled=
gpgcheck=

执行安装:

yum install gcc gcc-c++ -y
yum install protobuf -y
yum install net-snmp-libs -y
yum install boost -y
yum install libgsasl-devel -y

C)下载安装thrift 0.9.1

wget http://dl.fedoraproject.org/pub/epel/7/x86_64/Packages/t/thrift-0.9.1-15.el7.x86_64.rpm
rpm -ivh thrift-0.9.-.el7.x86_64.rpm

二、 下载安装包apache-hawq-rpm-2.3.0.0-incubating.tar.gz,并解压缩

cd downloads
wget http://mirrors.tuna.tsinghua.edu.cn/apache/incubator/hawq/2.3.0.0-incubating/apache-hawq-rpm-2.3.0.0-incubating.tar.gz
tar -zxvf apache-hawq-rpm-2.3.0.0-incubating.tar.gz

三、 安装服务端
1, 安装
rpm -ivh --prefix=/opt/gpadmin apache-hawq-2.3.0.0-el7.x86_64.rpm

#在其他主机中依次执行上面安装

**移除安装
yum remove apache-hawq -y

2 HAWQ的参数配置

0) 切换用户gpadmin

[root@ep-bd01 apache-hawq]# su - gpadmin

编辑用户gpadmin启动文件.bash_proifile

source /opt/gpadmin/apache-hawq/greenplum_path.sh

执行命令

source /opt/gpadmin/apache-hawq/greenplum_path.sh

配置HAWQ的集群及其它参数

1) vi   /opt/gpadmin/apache-hawq/etc/slaves

# 添加集群主机列表

ep-bd01
ep-bd02
ep-bd03
ep-bd04
ep-bd05
ep-bd06

2) vi hawq-site.xml

# 修改如下参数
参数名 值

hadoop.security.authentication    simple
hawq_master_address_host ep-bd01
hawq_dfs_url ep-bd01:/hawq
hawq_rm_memory_limit_perseg 64GB
hawq_rm_yarn_address ep-bd01:
hawq_dfs_url ep-bd01:/hawq
hawq_global_rm_type yarn
hawq_rm_yarn_scheduler_address ep-bd01:
hawq_acl_type standalone
hawq_master_directory /opt/gpadmin/data/masterdd
hawq_segment_directory /opt/gpadmin/data/segmentdd

vi yarn-site.xml

# 修改如下参数
参数名 值

hadoop.security.authentication    simple

2, 建立dfs/hawq

sudo -u hdfs hdfs dfs -mkdir /hawq
sudo -u hdfs hdfs dfs -chown gpadmin:gpadmin /hawq

3, 建立data目录(全部节点)

sudo -u gpadmin mkdir -p /opt/gpadmin/data/masterdd /opt/gpadmin/data/segmentdd

4, 复制配置文件到其他节点

su - gpadmin
gpscp -f slaves  slaves =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves  hawq-site.xml =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves  hdfs-client.xml =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves yarn-client.xml =:/opt/gpadmin/apache-hawq/etc

5,初始化cluster【注意,这里必须进入/opt/gpadmin/apache-hawq/bin】

su - gpadmin
cd /opt/gpadmin/apache-hawq/bin
source ../greenplum_path.sh
./hawq init cluster

# 初始化cluster失败,调整之后,再次执行初始化之前需要

#删除dfs目录中内容:
sudo -u hdfs hdfs dfs -rm -r -f /hawq/*
#删除数据目录中内容

ssh ep-bd01 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd01 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd02 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd02 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd03 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd03 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd04 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd04 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd05 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd05 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd06 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd06 rm -rf /opt/gpadmin/data/segmentdd/*

# 启动停止重启hawq
hawq stop/restart/start cluster

基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库03 —— 安装HAWQ 2.3.0.0的更多相关文章

  1. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库04 —— 安装HAWQ插件PXF3.3.0.0

    一. 安装PXF3.3.0.0,这里所安装的pxf的包文件都包含在apache-hawq-rpm-2.3.0.0-incubating.tar.gz里面下面步骤都是以root身份执行这里注意,pxf插 ...

  2. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库 —— MariaDB 安装配置

    一.安装并使用MariaDB作为Ambari.Hive.Hue的存储数据库. yum install mariadb-server mariadb 启动.查看状态,检查mariadb是否成功安装 sy ...

  3. Hadoop 2.4.0全然分布式平台搭建、配置、安装

    一:系统安装与配置 虚拟机软件:Virtualbox 4.3.10(已安装对应扩展包) 虚拟机:Ubuntu 13.04 LTS 32位(至于为什么选择13.04,是由于最新的版本号装上后开机会出现错 ...

  4. Hadoop 2.4.0完全分布式平台搭建、配置、安装

    一:系统安装与配置 Hadoop选择下载2.4.0 http://hadoop.apache.org / http://mirror.bit.edu.cn/apache/hadoop/common/h ...

  5. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库01 —— 准备环境,搭建本地仓库,安装ambari

    一.集群软硬件环境准备: 操作系统:  centos 7 x86_64.1804 Ambari版本:2.7.0 HDP版本:3.0.0 HAWQ版本:2.3.05台PC作为工作站: ep-bd01 e ...

  6. .Net Core3.0 WebApi 项目框架搭建:目录

    一.目录 .Net Core3.0 WebApi 项目框架搭建 一:实现简单的Resful Api .Net Core3.0 WebApi 项目框架搭建 二:API 文档神器 Swagger .Net ...

  7. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库——操作系统配置,安装必备软件

    注意未经说明,所有本文中所有操作都默认需要作为root用户进行操作. 一.安装zmodem,用于远程上传下载文件,安装gedit,方便重定向到远程windows上编辑文件(通过xlanuch) [ro ...

  8. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库02 ——使用ambari-server安装HDP

    本文记录使用ambari-server安装HDP的过程,对比于使用cloudera-manager安装CDH,不得不说ambari的易用性差的比较多~_~,需要用户介入的过程较多,或者说可定制性更高. ...

  9. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】HAWQ数据仓库 使用之 gpfdist协议

    一.HAWQ基本安装自带gpfdist协议 gpfdist是HAWQ支持的外部表访问协议之一,这是hawq自带的一个简单的集成http服务命令. 在我的前述安装hawq之后,gpfdist命令位于ha ...

随机推荐

  1. Yii2 表单(form)

    表单 1.表单的创建 在 yii 中主要通过 yii\widgets\ActiveForm 类来创建表单 ActiveForm::begin() 不仅创建了一个表单实例,同时也标志着表单的开始. 放在 ...

  2. Kafka监控框架介绍

    前段时间在想Kafka怎么监控.怎么知道生产的消息或消费的消费是否有丢失,目前有几个开源的Kafka监控框架这里整理了下,不过这几个框架都有各自的问题侧重点不一样: 1.Kafka Monitor 2 ...

  3. JAVA自学笔记27

    JAVA自学笔记27 1.类的加载 1)当程序要使用某个类时,如果该类还未被加载到内存中,则系统会通过加载,连接,初始化三步来实现对这个类进行初始化. ①加载:就是指将class文件读入内存,并为之创 ...

  4. [原创]RedisDesktopManager工具使用介绍

    [原创]RedisDesktopManager工具使用介绍 1 RedisDesktopManager简介 一款能够跨平台使用的开源性redis可视化工具.redis desktop manager主 ...

  5. 简易RPC框架-SPI

    *:first-child { margin-top: 0 !important; } body > *:last-child { margin-bottom: 0 !important; } ...

  6. Apache Kafka 快速入门

    概述 Apache Kafka是一个分布式发布-订阅消息系统和强大的队列,可以处理大量的数据,将消息从一个端点传递到另一个端点.Kafka适合离线和在线消息消费,Kafka消息保存在磁盘上,并在集群内 ...

  7. IDEA 设置 TOMCAT 虚拟路径

    今天在使用 IDEA 配置 TOMCAT 虚拟路径时一直报错,最终解决方式整理如下: 一.使用 Tomcat 自己的虚拟路径 1.在 Tomcat9\conf 目录下找到 server.xml 文件, ...

  8. 一步步教你轻松学K-means聚类算法

    一步步教你轻松学K-means聚类算法(白宁超  2018年9月13日09:10:33) 导读:k-均值算法(英文:k-means clustering),属于比较常用的算法之一,文本首先介绍聚类的理 ...

  9. 每天一个linux命令:du

    1.命令简介 du (Disk usage) 用来计算每个文件的磁盘用量,目录则取总用量. 2.用法 用法:du [选项]... [文件]... 或:du [选项]... --files0-from= ...

  10. maven error: element dependency can not have character children

    就是Mavn pom.xml的解析错误,因为dependency这个标签中有不可见的垃圾字符,解决方法就是删掉重新打字进去就可以了. references: https://stackoverflow ...