Imply.io单机安装
安装
wget https://static.imply.io/release/imply-2.5.15.tar.gz
tar zxvf imply-2.5..tar.gz -C /usr/local/
cd imply-2.5.
nohup bin/supervise -c conf/supervise/quickstart.conf > quickstart.log &
查看启动日志
[root@localhost imply-2.5.]# tail -f quickstart.log
[Sat Jun :: ] Running command[zk], logging to[/usr/local/imply-2.5./var/sv/zk.log]: bin/run-zk conf-quickstart
[Sat Jun :: ] Running command[coordinator], logging to[/usr/local/imply-2.5./var/sv/coordinator.log]: bin/run-druid coordinator conf-quickstart
[Sat Jun :: ] Running command[broker], logging to[/usr/local/imply-2.5./var/sv/broker.log]: bin/run-druid broker conf-quickstart
[Sat Jun :: ] Running command[historical], logging to[/usr/local/imply-2.5./var/sv/historical.log]: bin/run-druid historical conf-quickstart
[Sat Jun :: ] Running command[overlord], logging to[/usr/local/imply-2.5./var/sv/overlord.log]: bin/run-druid overlord conf-quickstart
[Sat Jun :: ] Running command[middleManager], logging to[/usr/local/imply-2.5./var/sv/middleManager.log]: bin/run-druid middleManager conf-quickstart
[Sat Jun :: ] Running command[imply-ui], logging to[/usr/local/imply-2.5./var/sv/imply-ui.log]: bin/run-imply-ui-quickstart conf-quickstart
可见启动了如下服务
| 服务 | 简介 | 访问地址 |
| zookeeper | 分布式协调服务 | —— |
| coordinator | 协调节点,管理集群状态 | http://localhost:8081/#/ |
| broker | 查询节点,处理查询请求 | http://localhost:8082/druid/v2 |
| historical | 历史节点,管理历史数据 | http://localhost:8083/druid/v2 |
| overlord | 统治节点,管理数据写入任务 | http://localhost:8090/console.html |
| middleManager | 中间管理者,负责写数据处理 | —— |
| imply-ui | 数据查询Web UI | http://localhost:9095/datasets/ |
数据导入与查询
导入离线数据与查询
数据导入与查询
导入离线数据与查询
quickstart/wikipedia-2016-06-27-sampled.json文件包含了维基百科的一些日志数据(每行是一个JSON字符串)
quickstart/wikipedia-index.json文件为离线写入任务的描述文件,其用JSON格式描述了任务的数据源、时间信息、维度信息、指标信息等
将这些数据导入到Druid中
bin/post-index-task --file quickstart/wikipedia-index.json
可能会报“ImportError: No module named argparse”的错误,执行pip install argparse安装即可解决
bin/post-index-task --file quickstart/wikipedia-index.json
Beginning indexing data for wikipedia
Task started: index_wikipedia_2018--09T04::.580Z
Task log: http://localhost:8090/druid/indexer/v1/task/index_wikipedia_2018-06-09T04:03:26.580Z/log
Task status: http://localhost:8090/druid/indexer/v1/task/index_wikipedia_2018-06-09T04:03:26.580Z/status
Task index_wikipedia_2018--09T04::.580Z still running...
Task index_wikipedia_2018--09T04::.580Z still running...
Task finished with status: SUCCESS
Completed indexing data for wikipedia. Now loading indexed data onto the cluster...
wikipedia is 0.0% finished loading...
wikipedia loading complete! You may now query your data
查询数据
访问http://localhost:9095,可以查看当前数据集的概况和字段信息等
查询编辑次数TOP5的页面
方式一切到SQL标签,输入以下SQL
SELECT page, COUNT(*) AS Edits
FROM wikipedia
WHERE "__time" BETWEEN TIMESTAMP '2016-06-27 00:00:00' AND TIMESTAMP '2016-06-28 00:00:00'
GROUP BY page
ORDER BY Edits
DESC LIMIT 5
方式二直接通过CURL查询
quickstart/wikipedia-top-pages.json中定了查询的JSON文件
curl -X 'POST' -H 'Content-Type:application/json' -d @quickstart/wikipedia-top-pages.json http://localhost:8082/druid/v2?pretty
返回
[ {
"timestamp" : "2016-06-27T00:00:11.080Z",
"result" : [ {
"count" : 29,
"page" : "Copa América Centenario"
}, {
"count" : 16,
"page" : "User:Cyde/List of candidates for speedy deletion/Subpage"
}, {
"count" : 16,
"page" : "Wikipedia:Administrators' noticeboard/Incidents"
}, {
"count" : 15,
"page" : "2016 Wimbledon Championships – Men's Singles"
}, {
"count" : 15,
"page" : "Wikipedia:Administrator intervention against vandalism"
} ]
} ]
实时导入与查询
发送数据
bin/generate-example-metrics可以产生一些随机的样例metric,运行下面的语句
[root@localhost imply]# bin/generate-example-metrics | curl -XPOST -H'Content-Type: application/json' --data-binary @-
http://localhost:8200/v1/post/tutorial-tranquility-server
返回结果如下
{"result":{"received":,"sent":}}
Imply.io单机安装的更多相关文章
- redis 的单机安装
redis 单机安装 参考文档地址:https://www.cnblogs.com/withfeel/p/10655994.html 1,下载redis,下载地址http://download.red ...
- (原) 1.1 Zookeeper单机安装
本文为原创文章,转载请注明出处,谢谢 zookeeper 单机安装配置 1.安装前准备 linux系统(此文环境为Centos6.5) Zookeeper安装包,官网https://zookeeper ...
- Linux下Kafka单机安装配置方法(图文)
Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了 ...
- Ubuntu 下 Neo4j单机安装和集群环境安装
1. Neo4j简介 Neo4j是一个用Java实现的.高性能的.NoSQL图形数据库.Neo4j 使用图(graph)相关的概念来描述数据模型,通过图中的节点和节点的关系来建模.Neo4j完全兼容A ...
- github.io hexo 安装
/***************************************************************** * github.io hexo 安装 * 说明: * 本文记录h ...
- Hbase单机安装部署
Hbase单机安装部署 http://blogxinxiucan.sh1.newtouch.com/2017/07/27/Hbase单机安装部署/ 下载Hbase Hbase官网下载地址 http:/ ...
- 单机安装Hadoop
单机安装hadoop ------------------------------------------------------------------ 操作系统:centos7 64 位 hado ...
- cenots7单机安装Kubernetes
关于什么是Kubernetes请看另一篇内容:http://www.cnblogs.com/boshen-hzb/p/6482734.html 一.环境搭建 master安装的组件有: docker ...
- Linux下Kafka单机安装配置方法
Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: •Kafka将消息以topi ...
随机推荐
- Slice header 中的frame_num的含义?
Frame_num表示解码的顺序.该图像是参考帧的时候,Frame_num才有意义.非参考帧的frame_num在poc type为2或3时,用于poc值的计算. H264中frame_num定义如下 ...
- ZK单机最简配置
修改zk home/conf下的zoo_sample.cfg,重新命名为zoo.cfg. 修改配置为: dataDir=/root/data/zookeeper-data clientPort=218 ...
- Leetcode 590. N-ary Tree Postorder Traversal
DFS,递归或者栈实现. """ # Definition for a Node. class Node: def __init__(self, val, childre ...
- Python matplotlib 数据分布
利用plt.hist() import matplotlib.pylab as plt %matplotlib inline plt.figure(figsize=(21, 12)) plt.hist ...
- sql基础语法复习(二)-- 分组,连接的使用
一.深入学习 group by group by ,分组,顾名思义,把数据按什么来分组,每一组都有什么特点. 1.我们先从最简单的开始: select count(*) from tb1 group ...
- c语言第4次作业
题目7-2九九乘法表 1.代码: #include<stdio.h> int main() { int N, i, j, q; scanf("%d",&N); ...
- python3.4 使用BeautifulSoup问题
事情 记得昨儿还是什么时候,反正是以前,肯定安装过BeautifulSoup,只不过当初可能用的是python setup.py install,这是Python2的安装.然而用Python3运行Be ...
- 每天一个linux命令(目录文件操作):【转载】linux文件属性详解
Linux 文件或目录的属性主要包括:文件或目录的节点.种类.权限模式.链接数量.所归属的用户和用户组.最近访问或修改的时间等内容.具体情况如下: 命令: ls -lih 输出: [root@loc ...
- BZOJ1260 CQOI2007 涂色paint 【区间DP】
BZOJ1260 CQOI2007 涂色paint Description 假设你有一条长度为5的木版,初始时没有涂过任何颜色.你希望把它的5个单位长度分别涂上红.绿.蓝.绿.红色,用一个长度为5的字 ...
- Sharepoint Web.config trust level="Full"权限说明
在SharePoint里面,不仅有用户的权限,还有代码的权限.比如,我们在安装一个自定义的WebPart的时候,默认的情况下是不能操纵文件夹的,如果你看一些教你怎么做WebPart的文章的话,你会发现 ...