基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库03 —— 安装HAWQ 2.3.0.0
一、 HAWQ2.3.0环境准备【全部主机节点】:
1, vim /etc/sysctl.conf,编辑如下内容:
kernel.shmmax=
kernel.shmmni=
kernel.shmall=
kernel.sem=
kernel.sysrq=
kernel.core_uses_pid=
kernel.msgmnb=
kernel.msgmax=
kernel.msgmni=
net.ipv4.tcp_syncookies=
net.ipv4.ip_forward=
net.ipv4.conf.default.accept_source_route=
net.ipv4.tcp_tw_recycle=
net.ipv4.tcp_max_syn_backlog=
net.ipv4.conf.all.arp_filter=
net.ipv4.ip_local_port_range=
net.core.netdev_max_backlog=
vm.overcommit_memory=
fs.nr_open=
kernel.threads-max=
kernel.pid_max=
#increase network
net.core.rmem_max=
net.core.wmem_max=
保存退出后,使用命令“sysctl -p” 使之生效:
sysctl -p
2, vim /etc/security/limits.conf 编辑如下内容:
* soft nofile
* hard nofile
* soft nproc
* hard nproc
重新登录以使配置生效,或者使用命令临时设置一下:
ulimit -n 10240
3, 添加gpadmin用户(greeplum admin缩写),使用/opt/gpadmin作为主目录
useradd --home=/opt/gpadmin/ --no-create-home --comment "HAWQ admin" gpadmin
echo gpadmin | passwd --stdin gpadmin
mkdir /opt/gpadmin
chown gpadmin:gpadmin /opt/gpadmin
2,添加gpadmin到/etc/sudoers,编辑该文件,添加如下行
gpadmin ALL=(ALL) NOPASSWD:ALL
3, 配置gpadmin用户的ssh【免密互访】
4, 准备软件包依赖项:
libgsasl is needed by apache-hawq-2.3.0.0-el7.x86_64
protobuf >= 2.5.0 is needed by apache-hawq-2.3.0.0-el7.x86_64
net-snmp-libs is needed by apache-hawq-2.3.0.0-el7.x86_64
thrift >= 0.9.1 is needed by apache-hawq-2.3.0.0-el7.x86_64
boost >= 1.53.0 is needed by apache-hawq-2.3.0.0-el7.x86_64
其中gcc gcc-c++ protobuf net-snmp-libs boots可直接安装。而安装libgsasl需要添加一个包含libgsasl库的源:新建/etc/yum.repos.d/fedora.repo文件,添加如下内容:
[epel-repo]
name=epel
baseurl=http://dl.fedoraproject.org/pub/epel/6/x86_64/
enabled=
gpgcheck=
执行安装:
yum install gcc gcc-c++ -y
yum install protobuf -y
yum install net-snmp-libs -y
yum install boost -y
yum install libgsasl-devel -y
C)下载安装thrift 0.9.1
wget http://dl.fedoraproject.org/pub/epel/7/x86_64/Packages/t/thrift-0.9.1-15.el7.x86_64.rpm
rpm -ivh thrift-0.9.-.el7.x86_64.rpm
二、 下载安装包apache-hawq-rpm-2.3.0.0-incubating.tar.gz,并解压缩
cd downloads
wget http://mirrors.tuna.tsinghua.edu.cn/apache/incubator/hawq/2.3.0.0-incubating/apache-hawq-rpm-2.3.0.0-incubating.tar.gz
tar -zxvf apache-hawq-rpm-2.3.0.0-incubating.tar.gz
三、 安装服务端
1, 安装
rpm -ivh --prefix=/opt/gpadmin apache-hawq-2.3.0.0-el7.x86_64.rpm
#在其他主机中依次执行上面安装
**移除安装
yum remove apache-hawq -y
2 HAWQ的参数配置
0) 切换用户gpadmin
[root@ep-bd01 apache-hawq]# su - gpadmin
编辑用户gpadmin启动文件.bash_proifile
source /opt/gpadmin/apache-hawq/greenplum_path.sh
执行命令
source /opt/gpadmin/apache-hawq/greenplum_path.sh
配置HAWQ的集群及其它参数
1) vi /opt/gpadmin/apache-hawq/etc/slaves
# 添加集群主机列表
ep-bd01
ep-bd02
ep-bd03
ep-bd04
ep-bd05
ep-bd06
2) vi hawq-site.xml
# 修改如下参数
参数名 值
hadoop.security.authentication simple
hawq_master_address_host ep-bd01
hawq_dfs_url ep-bd01:/hawq
hawq_rm_memory_limit_perseg 64GB
hawq_rm_yarn_address ep-bd01:
hawq_dfs_url ep-bd01:/hawq
hawq_global_rm_type yarn
hawq_rm_yarn_scheduler_address ep-bd01:
hawq_acl_type standalone
hawq_master_directory /opt/gpadmin/data/masterdd
hawq_segment_directory /opt/gpadmin/data/segmentdd
vi yarn-site.xml
# 修改如下参数
参数名 值
hadoop.security.authentication simple
2, 建立dfs/hawq
sudo -u hdfs hdfs dfs -mkdir /hawq
sudo -u hdfs hdfs dfs -chown gpadmin:gpadmin /hawq
3, 建立data目录(全部节点)
sudo -u gpadmin mkdir -p /opt/gpadmin/data/masterdd /opt/gpadmin/data/segmentdd
4, 复制配置文件到其他节点
su - gpadmin
gpscp -f slaves slaves =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves hawq-site.xml =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves hdfs-client.xml =:/opt/gpadmin/apache-hawq/etc
gpscp -f slaves yarn-client.xml =:/opt/gpadmin/apache-hawq/etc
5,初始化cluster【注意,这里必须进入/opt/gpadmin/apache-hawq/bin】
su - gpadmin
cd /opt/gpadmin/apache-hawq/bin
source ../greenplum_path.sh
./hawq init cluster
# 初始化cluster失败,调整之后,再次执行初始化之前需要
#删除dfs目录中内容:
sudo -u hdfs hdfs dfs -rm -r -f /hawq/*
#删除数据目录中内容
ssh ep-bd01 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd01 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd02 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd02 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd03 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd03 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd04 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd04 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd05 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd05 rm -rf /opt/gpadmin/data/segmentdd/*
ssh ep-bd06 rm -rf /opt/gpadmin/data/masterdd/*
ssh ep-bd06 rm -rf /opt/gpadmin/data/segmentdd/*
# 启动停止重启hawq
hawq stop/restart/start cluster
基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库03 —— 安装HAWQ 2.3.0.0的更多相关文章
- 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库04 —— 安装HAWQ插件PXF3.3.0.0
一. 安装PXF3.3.0.0,这里所安装的pxf的包文件都包含在apache-hawq-rpm-2.3.0.0-incubating.tar.gz里面下面步骤都是以root身份执行这里注意,pxf插 ...
- 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库 —— MariaDB 安装配置
一.安装并使用MariaDB作为Ambari.Hive.Hue的存储数据库. yum install mariadb-server mariadb 启动.查看状态,检查mariadb是否成功安装 sy ...
- Hadoop 2.4.0全然分布式平台搭建、配置、安装
一:系统安装与配置 虚拟机软件:Virtualbox 4.3.10(已安装对应扩展包) 虚拟机:Ubuntu 13.04 LTS 32位(至于为什么选择13.04,是由于最新的版本号装上后开机会出现错 ...
- Hadoop 2.4.0完全分布式平台搭建、配置、安装
一:系统安装与配置 Hadoop选择下载2.4.0 http://hadoop.apache.org / http://mirror.bit.edu.cn/apache/hadoop/common/h ...
- 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库01 —— 准备环境,搭建本地仓库,安装ambari
一.集群软硬件环境准备: 操作系统: centos 7 x86_64.1804 Ambari版本:2.7.0 HDP版本:3.0.0 HAWQ版本:2.3.05台PC作为工作站: ep-bd01 e ...
- .Net Core3.0 WebApi 项目框架搭建:目录
一.目录 .Net Core3.0 WebApi 项目框架搭建 一:实现简单的Resful Api .Net Core3.0 WebApi 项目框架搭建 二:API 文档神器 Swagger .Net ...
- 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库——操作系统配置,安装必备软件
注意未经说明,所有本文中所有操作都默认需要作为root用户进行操作. 一.安装zmodem,用于远程上传下载文件,安装gedit,方便重定向到远程windows上编辑文件(通过xlanuch) [ro ...
- 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】搭建HAWQ数据仓库02 ——使用ambari-server安装HDP
本文记录使用ambari-server安装HDP的过程,对比于使用cloudera-manager安装CDH,不得不说ambari的易用性差的比较多~_~,需要用户介入的过程较多,或者说可定制性更高. ...
- 基于【CentOS-7+ Ambari 2.7.0 + HDP 3.0】HAWQ数据仓库 使用之 gpfdist协议
一.HAWQ基本安装自带gpfdist协议 gpfdist是HAWQ支持的外部表访问协议之一,这是hawq自带的一个简单的集成http服务命令. 在我的前述安装hawq之后,gpfdist命令位于ha ...
随机推荐
- Yii2 表单(form)
表单 1.表单的创建 在 yii 中主要通过 yii\widgets\ActiveForm 类来创建表单 ActiveForm::begin() 不仅创建了一个表单实例,同时也标志着表单的开始. 放在 ...
- Kafka监控框架介绍
前段时间在想Kafka怎么监控.怎么知道生产的消息或消费的消费是否有丢失,目前有几个开源的Kafka监控框架这里整理了下,不过这几个框架都有各自的问题侧重点不一样: 1.Kafka Monitor 2 ...
- JAVA自学笔记27
JAVA自学笔记27 1.类的加载 1)当程序要使用某个类时,如果该类还未被加载到内存中,则系统会通过加载,连接,初始化三步来实现对这个类进行初始化. ①加载:就是指将class文件读入内存,并为之创 ...
- [原创]RedisDesktopManager工具使用介绍
[原创]RedisDesktopManager工具使用介绍 1 RedisDesktopManager简介 一款能够跨平台使用的开源性redis可视化工具.redis desktop manager主 ...
- 简易RPC框架-SPI
*:first-child { margin-top: 0 !important; } body > *:last-child { margin-bottom: 0 !important; } ...
- Apache Kafka 快速入门
概述 Apache Kafka是一个分布式发布-订阅消息系统和强大的队列,可以处理大量的数据,将消息从一个端点传递到另一个端点.Kafka适合离线和在线消息消费,Kafka消息保存在磁盘上,并在集群内 ...
- IDEA 设置 TOMCAT 虚拟路径
今天在使用 IDEA 配置 TOMCAT 虚拟路径时一直报错,最终解决方式整理如下: 一.使用 Tomcat 自己的虚拟路径 1.在 Tomcat9\conf 目录下找到 server.xml 文件, ...
- 一步步教你轻松学K-means聚类算法
一步步教你轻松学K-means聚类算法(白宁超 2018年9月13日09:10:33) 导读:k-均值算法(英文:k-means clustering),属于比较常用的算法之一,文本首先介绍聚类的理 ...
- 每天一个linux命令:du
1.命令简介 du (Disk usage) 用来计算每个文件的磁盘用量,目录则取总用量. 2.用法 用法:du [选项]... [文件]... 或:du [选项]... --files0-from= ...
- maven error: element dependency can not have character children
就是Mavn pom.xml的解析错误,因为dependency这个标签中有不可见的垃圾字符,解决方法就是删掉重新打字进去就可以了. references: https://stackoverflow ...