Presto单机/集群模式安装笔记

一、安装环境

  1. JDK版本要求: 1.9.0_92+

二、安装步骤

  1. 官网下载最新版本

    https://prestodb.io/docs/current/installation/deployment.html

  2. 配置,参考网址

    http://prestodb-china.com/docs/current/installation/deployment.html

    etc/node.properties暂时配置如下:
    node.data-dir=/opt/dtwave/presto/data (新建data目录)

    注意删除etc/config.properties中的task.max-memory=1GB。 否则启动报如下错误:

    启动服务: bin/launcher start

ERROR com.facebook.presto.server.PrestoServer Unable to create injector, see the following errors:

1) Error: Invalid configuration property node.environment: is malformed (for class io.airlift.node.NodeConfig.environment)

2) Error: Defunct property 'task.max-memory' (class [class com.facebook.presto.execution.TaskManagerConfig]) cannot be configured.

3.查询日志目录

/opt/dtwave/presto/data/var/log

4.浏览器查看

http://ip:8086/

5.下载客户端,下载到 /opt/dtwave/presto/bin目录下

https://prestodb.io/docs/current/installation/cli.html

重命名为 presto-cli

$ mv presto-cli-0.180-executable.jar presto-cli

$ chmod +x presto-cli

添加环境变量 /etc/profile

export PRESTO_HOME=/opt/dtwave/presto

export PATH=$PATH:$PRESTO_HOME/bin

source /etc/profile

6.配置Hive连接器,etc/catalog目录新建 hive.properties, 内容如下:

connector.name=hive-hadoop2
hive.metastore.uri=thrift://master106:9083
hive.config.resources=/opt/dtwave/hadoop/etc/hadoop/core-site.xml,/opt/dtwave/hadoop/etc/hadoop/hdfs-site.xml

7.连接Hive,

presto-cli –server outer_ip:8086 –catalog hive –schema default

presto-cli –server inner_ip:8086 –catalog hive –schema default

或者(不指定数据库)

presto-cli –server ip:8086 –cata 大专栏  Presto单机/集群模式安装笔记log hive

presto> describe hive.dtwave_dev.bas_user_info;
Column | Type | Extra | Comment
--------+---------+-------+---------
id | integer | |
name | varchar | |
age | integer | |
(3 rows) Query 20170707_171515_00005_cxg9d, FINISHED, 1 node
Splits: 18 total, 18 done (100.00%)
0:01 [3 rows, 216B] [4 rows/s, 320B/s] presto> select * from hive.dtwave_dev.bas_user_info limit 10;
id | name | age
----+-------+-----
1 | zhang | 23
2 | san | 24
3 | li | 35

=============================

三、集群模式安装:

从第一台安装好的persto机器上scp 文件夹过去

scp -r presto-server-0.180 hadoop@node47:/opt/dtwave/
scp -r presto-server-0.180 hadoop@1node.50:/opt/dtwave/
scp -r presto-server-0.180 hadoop@node172:/opt/dtwave/ scp -r jdk1.8.0_131 hadoop@node47:/opt/dtwave/
scp -r jdk1.8.0_131 hadoop@node50:/opt/dtwave/
scp -r jdk1.8.0_131 hadoop@node172:/opt/dtwave/

创建软链接:

ln -s presto-server-0.180 presto

删除目录/presto/data下所有旧文件。

配置环境变量:

export PRESTO_HOME=/opt/dtwave/presto
export PATH=$PATH:$PRESTO_HOME/bin source /etc/profile

删除旧版本jdk软连接

rm -rf jdk

创建软链接升级JDK:

ln -s jdk1.8.0_131 jdk

3.1 集群模式修改配置部分

把Node172作为coordinator Node45和Node47作为Node。修改配置后重新启动。

3.1.1 coordinator 节点配置。

Node172配置

:vim config.properties

coordinator=true
node-scheduler.include-coordinator=false
task.max-memory=1GB
http-server.http.port=8086
discovery-server.enabled=true
discovery.uri=http://node172:8086

:vim node.properties

node.environment=dtwave
node.id=172
node.data-dir=/opt/dtwave/presto/data

3.1.2 node节点配置:【注意coordinator=false】

Node50

coordinator=false
http-server.http.port=8086
discovery-server.enabled=true
discovery.uri=http://node172:8086
node.environment=dtwave
node.id=50
node.data-dir=/opt/dtwave/presto/data

Node47

coordinator=false
http-server.http.port=8086
discovery-server.enabled=true
discovery.uri=http://node172:8086
node.environment=dtwave
node.id=47
node.data-dir=/opt/dtwave/presto/data

3.2 Cli远程连接测试:(指定Server为172)

presto-cli --server node172:8086 --catalog hive --schema default

Presto单机/集群模式安装笔记的更多相关文章

  1. Spark Tachyon编译部署(含单机和集群模式安装)

    Tachyon编译部署 编译Tachyon 单机部署Tachyon 集群模式部署Tachyon 1.Tachyon编译部署 Tachyon目前的最新发布版为0.7.1,其官方网址为http://tac ...

  2. Hadoop学习笔记(4)hadoop集群模式安装

    具体的过程参见伪分布模式的安装,集群模式的安装和伪分布模式的安装基本一样,只有细微的差别,写在下面: 修改masers和slavers文件: 在hadoop/conf文件夹中的配置文件中有两个文件ma ...

  3. Zookeeper实战之单机集群模式

    前一篇文章介绍了Zookeeper的单机模式的安装及应用,但是Zookeeper是为了解决分布式应用场景的,所以通常都会运行在集群模式下.今天由于手头机器不足,所以今天打算在一台机器上部署三个Zook ...

  4. Kafka集群模式安装(二)

    我们来安装Kafka的集群模式,三台机器: 192.168.131.128 192.168.131.130 192.168.131.131 Kafka集群需要依赖zookeeper,所以需要先安装好z ...

  5. hadoop单机and集群模式安装

    最近在学习hadoop,第一步当然是亲手装一下hadoop了. 下面记录我hadoop安装的过程: 注意: 1,首先明确hadoop的安装是一个非常简单的过程,装hadoop的主要工作都在配置文件上, ...

  6. redis 集群模式安装

    概念 Redis集群提供一种方式自动将数据分布在多个Redis节点上. 每个Redis集群中的节点都需要打开两个TCP连接.一个连接用于正常的给Client提供服务,比如6379,还有一个额外的端口( ...

  7. Spring集成Jedis(不依赖spring-data-redis)(单机/集群模式)(待实践)

    Jedis是Redis的Java客户端,Spring将Jedis连接池作为一个Bean来配置.如果在Spring Data的官网上可以发现,Spring Data Redis已经将Jedis集成进去了 ...

  8. flink集群模式安装配置

    一.手动下载安装包 wget http://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.6.1/flink-1.6.1-bin-hadoop27 ...

  9. hive集群模式安装

    hadoop3.2.0 完全分布式安装 hive-3.1.1 #解压缩tar -zxvf /usr/local/soft/apache-hive-3.1.1-bin.tar.gz -C /usr/lo ...

随机推荐

  1. 7.学完linux系统运维到底可以做什么?

    linux运维到底可以做什么?(略有改动原文.排版) 运维,很容易从字面理解为运营.维护. 很多朋友认为,在互联网公司中linux系统运维的工作就是安装系统,部署服务.处理紧急故障,为公司里的开发人员 ...

  2. 使用sshfs

    寻找winscp在mac下的代替品, 没有找到. 但找到一个更好用的方法: 通过sshfs挂载文件目录,当作普通文件夹使用. 使用方法 sshfs -o defer_permissions -o no ...

  3. c# winform清空ie缓存的几种方法

    很明显 IE的缓存在其目录中显示的并不是真正的文件所处的位置,文件的位置是在隐藏的文件夹中,而且这个隐藏的文件夹我们一般找不到.在网上几种清空缓存的方法,在此我一一把代码和处理的效果显示出来.供大家参 ...

  4. 爬虫笔记(三)——HTTP协议请求实战

    如果要进行客户端与服务器端之间的消息传递,我们可以使用HTTP协议请求进行. HTTP协议请求主要分为6种类型,各类型的主要作用如下: GET请求:GET请求会通过URL网址传递信息,可以直接在URL ...

  5. 十九、linux--RAID详解

    一.什么是RADI Raid是廉价冗余磁盘阵列,简称磁盘阵列. 运维人员就叫RAID.Raid是一种把多块独立的磁盘(物理磁盘)按不同方式组合起来形成一个磁盘组,在逻辑上看起来就是一个大的磁盘,从而提 ...

  6. WIFI模块AP和STA模式分别是什么意思

    无线AP(Access Point):即无线接入点,它用于无线网络的无线交换机,也是无线网络的核心.无线AP是移动计算机用户进入有线网络的接入点,主要用于宽带家庭.大楼内部以及园区内部,可以覆盖几十米 ...

  7. A. Coffee Break(思维题,类似于邻接表的head数组用法)

    题:https://codeforces.com/gym/101911/problem/A 题意:每天工作m分钟,每次喝coffee得间隔d分钟,然后给出n个数,每个数表示想在一天中的a[i]的时刻喝 ...

  8. DateTimePicket jQuery 日期插件,开始时间和结束时间示例

    需要引入的js文件: <input type="text" id="startTime" placeholder="开始时间"/> ...

  9. linux进程(二)

    信号管理进程使用kill命令发送信号与进程通信定义守护进程的角色结束用户会话的进程 kill,killall,pgrep,pkill 对于进程的正常关闭的理解正常关闭程序的方法systemctl st ...

  10. linux特殊权限(acl)

    建立用户目录       创建目录/oldboy/tech./oldboy/edu,分别用于不同项目组添加组账号       添加组账号tech.edu,GID分别设置为1001.1002      ...