一、 HAWQ2.3.0环境准备【全部主机节点】:

1, vim /etc/sysctl.conf,编辑如下内容:

kernel.shmmax=
kernel.shmmni=
kernel.shmall=
kernel.sem=
kernel.sysrq=
kernel.core_uses_pid=
kernel.msgmnb=
kernel.msgmax=
kernel.msgmni=
net.ipv4.tcp_syncookies=
net.ipv4.ip_forward=
net.ipv4.conf.default.accept_source_route=
net.ipv4.tcp_tw_recycle=
net.ipv4.tcp_max_syn_backlog=
net.ipv4.conf.all.arp_filter=
net.ipv4.ip_local_port_range=
net.core.netdev_max_backlog=
vm.overcommit_memory=
fs.nr_open=
kernel.threads-max=
kernel.pid_max=
#increase network
net.core.rmem_max=
net.core.wmem_max=

保存退出后,使用命令“sysctl -p” 使之生效:

sysctl -p

2, vim /etc/security/limits.conf 编辑如下内容:

* soft nofile
* hard nofile
* soft nproc
* hard nproc

重新登录以使配置生效,或者使用命令临时设置一下:

ulimit -n 10240

3, 添加gpadmin用户(greeplum admin缩写),使用/opt/gpadmin作为主目录

useradd --home=/opt/gpadmin/ --no-create-home --comment "HAWQ admin" gpadmin
echo gpadmin | passwd --stdin gpadmin
mkdir /opt/gpadmin
chown gpadmin:gpadmin /opt/gpadmin

2,添加gpadmin到/etc/sudoers,编辑该文件,添加如下行

gpadmin ALL=(ALL) NOPASSWD:ALL

3, 配置gpadmin用户的ssh【免密互访】
4, 准备软件包依赖项:
libgsasl is needed by apache-hawq-2.3.0.0-el7.x86_64
protobuf >= 2.5.0 is needed by apache-hawq-2.3.0.0-el7.x86_64
net-snmp-libs is needed by apache-hawq-2.3.0.0-el7.x86_64
thrift >= 0.9.1 is needed by apache-hawq-2.3.0.0-el7.x86_64
boost >= 1.53.0 is needed by apache-hawq-2.3.0.0-el7.x86_64
其中gcc gcc-c++ protobuf net-snmp-libs boots可直接安装。而安装libgsasl需要添加一个包含libgsasl库的源:新建/etc/yum.repos.d/fedora.repo文件,添加如下内容:

[epel-repo]
name=epel
baseurl=http://dl.fedoraproject.org/pub/epel/6/x86_64/
enabled=
gpgcheck=

执行安装:

yum install gcc gcc-c++ -y
yum install protobuf -y
yum install net-snmp-libs -y
yum install boost -y
yum install libgsasl-devel -y

C)下载安装thrift 0.9.1

wget http://dl.fedoraproject.org/pub/epel/7/x86_64/Packages/t/thrift-0.9.1-15.el7.x86_64.rpm
rpm -ivh thrift-0.9.-.el7.x86_64.rpm

二、 下载安装包apache-hawq-rpm-2.3.0.0-incubating.tar.gz,并解压缩

cd downloads
wget http://mirrors.tuna.tsinghua.edu.cn/apache/incubator/hawq/2.3.0.0-incubating/apache-hawq-rpm-2.3.0.0-incubating.tar.gz
tar -zxvf apache-hawq-rpm-2.3.0.0-incubating.tar.gz

三、 安装服务端
1, 安装
rpm -ivh --prefix=/opt/gpadmin apache-hawq-2.3.0.0-el7.x86_64.rpm

#在其他主机中依次执行上面安装

**移除安装
yum remove apache-hawq -y

2 HAWQ的参数配置

0) 切换用户gpadmin

[root@ep-bd01 apache-hawq]# su - gpadmin

编辑用户gpadmin启动文件.bash_proifile

source /opt/gpadmin/apache-hawq/greenplum_path.sh

执行命令

source /opt/gpadmin/apache-hawq/greenplum_path.sh

配置HAWQ的集群及其它参数

1) vi   /opt/gpadmin/apache-hawq/etc/slaves

# 添加集群主机列表

ep-bd01
ep-bd02
ep-bd03
ep-bd04
ep-bd05
ep-bd06

2) vi hawq-site.xml

# 修改如下参数
参数名 值

hadoop.security.authentication    simple
hawq_master_address_host ep-bd01
hawq_dfs_url ep-bd01:/hawq
hawq_rm_memory_limit_perseg 64GB
hawq_rm_yarn_address ep-bd01:
hawq_dfs_url ep-bd01:/hawq
hawq_global_rm_type yarn
hawq_rm_yarn_scheduler_address ep-bd01:
hawq_acl_type standalone
hawq_master_directory /opt/gpadmin/data/masterdd
hawq_segment_directory /opt/gpadmin/data/segmentdd

vi yarn-site.xml

# 修改如下参数
参数名 值

hadoop.security.authentication    simple

2, 建立dfs/hawq

sudo -u hdfs hdfs dfs -mkdir /hawq
sudo -u hdfs hdfs dfs -chown gpadmin:gpadmin /hawq

3, 建立data目录(全部节点)

sudo -u gpadmin mkdir -p /opt/gpadmin/data/masterdd /opt/gpadmin/data/segmentdd

4, 复制配置文件到其他节点

su - gpadmin
gpscp -f slaves  slaves =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves  hawq-site.xml =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves  hdfs-client.xml =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves yarn-client.xml =:/opt/gpadmin/apache-hawq/etc

5,初始化cluster【注意,这里必须进入/opt/gpadmin/apache-hawq/bin】

su - gpadmin
cd /opt/gpadmin/apache-hawq/bin
source ../greenplum_path.sh
./hawq init cluster

# 初始化cluster失败,调整之后,再次执行初始化之前需要

#删除dfs目录中内容:
sudo -u hdfs hdfs dfs -rm -r -f /hawq/*
#删除数据目录中内容

ssh ep-bd01 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd01 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd02 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd02 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd03 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd03 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd04 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd04 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd05 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd05 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd06 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd06 rm -rf /opt/gpadmin/data/segmentdd/*

# 启动停止重启hawq
hawq stop/restart/start cluster

基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库03 —— 安装HAWQ 2.3.0.0的更多相关文章

  1. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库04 —— 安装HAWQ插件PXF3.3.0.0

    一. 安装PXF3.3.0.0,这里所安装的pxf的包文件都包含在apache-hawq-rpm-2.3.0.0-incubating.tar.gz里面下面步骤都是以root身份执行这里注意,pxf插 ...

  2. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库 —— MariaDB 安装配置

    一.安装并使用MariaDB作为Ambari.Hive.Hue的存储数据库. yum install mariadb-server mariadb 启动.查看状态,检查mariadb是否成功安装 sy ...

  3. Hadoop 2.4.0全然分布式平台搭建、配置、安装

    一:系统安装与配置 虚拟机软件:Virtualbox 4.3.10(已安装对应扩展包) 虚拟机:Ubuntu 13.04 LTS 32位(至于为什么选择13.04,是由于最新的版本号装上后开机会出现错 ...

  4. Hadoop 2.4.0完全分布式平台搭建、配置、安装

    一:系统安装与配置 Hadoop选择下载2.4.0 http://hadoop.apache.org / http://mirror.bit.edu.cn/apache/hadoop/common/h ...

  5. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库01 —— 准备环境,搭建本地仓库,安装ambari

    一.集群软硬件环境准备: 操作系统:  centos 7 x86_64.1804 Ambari版本:2.7.0 HDP版本:3.0.0 HAWQ版本:2.3.05台PC作为工作站: ep-bd01 e ...

  6. .Net Core3.0 WebApi 项目框架搭建:目录

    一.目录 .Net Core3.0 WebApi 项目框架搭建 一:实现简单的Resful Api .Net Core3.0 WebApi 项目框架搭建 二:API 文档神器 Swagger .Net ...

  7. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库——操作系统配置,安装必备软件

    注意未经说明,所有本文中所有操作都默认需要作为root用户进行操作. 一.安装zmodem,用于远程上传下载文件,安装gedit,方便重定向到远程windows上编辑文件(通过xlanuch) [ro ...

  8. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库02 ——使用ambari-server安装HDP

    本文记录使用ambari-server安装HDP的过程,对比于使用cloudera-manager安装CDH,不得不说ambari的易用性差的比较多~_~,需要用户介入的过程较多,或者说可定制性更高. ...

  9. 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】HAWQ数据仓库 使用之 gpfdist协议

    一.HAWQ基本安装自带gpfdist协议 gpfdist是HAWQ支持的外部表访问协议之一,这是hawq自带的一个简单的集成http服务命令. 在我的前述安装hawq之后,gpfdist命令位于ha ...

随机推荐

  1. BZOJ4681 : [Jsoi2010]旅行

    将边按权值从小到大排序. 考虑一条路径,一定是最大的若干条边和最小的相应的没选的边进行交换. 这会导致存在一个分界线$L$,交换之后恰好选中前$L$小的边,且只允许$>L$的边与$\leq L$ ...

  2. redis(六)

    安装包 到中文官网查找客户端代码 联网安装 sudo pip install redis 使用源码安装 unzip redis-py-master.zip cd redis-py-master sud ...

  3. C++程序设计方法3:函数重写

    派生类对象包含从基类继承类的数据成员,他们构成了“基类子对象”基类中的私有成员,不允许在派生类成员函数中被访问,也不允许派生类的对象访问他们:真正体现基类私有,对派生类也不开放其权限:基类中的公有成员 ...

  4. Jsp俩大内置对象学习

    https://www.cnblogs.com/smyhvae/p/4065790.html post与get的区别 最直观的区别就是GET把参数包含在URL中,POST通过request body传 ...

  5. 解释Eclipse下Tomcat项目部署路径问题(.metadata\.plugins\org.eclipse.wst.server.core\tmp0\wtpwebapps)

    配置eclipse的开发环境,配置jdk的安装路径和tomcat安装路径.在eclipse下建立Dynamic Web Project工程zhgy,在使用eclipse中new一个tomcat,通过启 ...

  6. eclipse 安装合适的pydev插件

    http://www.cnblogs.com/yanduanduan/p/7261500.html

  7. 【二分】Producing Snow @Codeforces Round #470 Div.2 C

    time limit per test: 1 second memory limit per test: 256 megabytes Alice likes snow a lot! Unfortuna ...

  8. Oracle中连接与加号(+)的使用

    1.左外连接(Left outer join/ left join) left join是以左表的记录为基础的,左表的记录将会全部表示出来,而右表只会显示符合搜索条件的记录.右表记录不足的地方均为NU ...

  9. JS对HTML字符的转义

    function htmlEscape(str){ var s = ""; if(str.length == 0) return ""; s = str.rep ...

  10. 推荐系统算法学习(一)——协同过滤(CF) MF FM FFM

    https://blog.csdn.net/qq_23269761/article/details/81355383 1.协同过滤(CF)[基于内存的协同过滤] 优点:简单,可解释 缺点:在稀疏情况下 ...