Phoenix与HBase集成进行数据分析
安装好Phoenix后配置环境变量
export PHOENIX_PATH=/opt/cloudera/parcels/APACHE_PHOENIX-4.14.0-cdh5.14.2.p0.3export PATH=$PATH:$PHOENIX_PATH/bin:
进入命令行,这是sqlline.py 配置到path环境变量的情况下
[root@node1 ~]# phoenix-sqlline.py node3::/hbase 如果要退出命令行:!q 或者 !quit
返回信息
[root@node1 ~]# phoenix-sqlline.py node3::/hbase Setting property: [incremental, false] Setting property: [isolation, TRANSACTION_READ_COMMITTED] issuing: !connect jdbc:phoenix:node3::/hbase none none org.apache.phoenix.jdbc.PhoenixDriver Connecting to jdbc:phoenix:node3::/hbase SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding -cdh5./lib/phoenix/phoenix--cdh5.14.2-client.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding -.cdh5./jars/slf4j-log4j12-.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] // :: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Connected to: Phoenix (version 4.14) Driver: PhoenixEmbeddedDriver (version 4.14) Autocommit status: true Transaction isolation: TRANSACTION_READ_COMMITTED Building list of tables and columns for tab-completion (set fastconnect to true to skip)... / (%) Done Done sqlline version
输入命令
[root@node3 ~]# netstat -ntlp
得到端口号2181对应的PID为29058,且为JVM进程
tcp /java
输入命令
[root@node3 ~]# jps -l
发现PID为29058的进程是zookeeper启动的
org.apache.zookeeper.server.quorum.QuorumPeerMain
显示所有表
: jdbc:phoenix:node3::/hbase> !tables
返回信息
: jdbc:phoenix:node3::/hbase> !tables +------------+--------------+-------------------------+---------------+----------+------------+-------+ | TABLE_CAT | TABLE_SCHEM | TABLE_NAME | TABLE_TYPE | REMARKS | TYPE_NAME | SELF_ | +------------+--------------+-------------------------+---------------+----------+------------+-------+ | | | INDEX1_ITEM_TEST1 | INDEX | | | | | | SYSTEM | CATALOG | SYSTEM TABLE | | | | | | SYSTEM | FUNCTION | SYSTEM TABLE | | | | | | SYSTEM | LOG | SYSTEM TABLE | | | | | | SYSTEM | SEQUENCE | SYSTEM TABLE | | | | | | SYSTEM | STATS | SYSTEM TABLE | | | | | | | ASSET_ALLOT | TABLE | | | | | | | ASSET_BUILDING | TABLE | | | | | | | ASSET_BUILDING_PENDING | TABLE | | | | | | | ASSET_CHECK | TABLE | | | | | | | ASSET_CHECK_PLAN | TABLE | | | | | | | ASSET_CHECK_REPORT | TABLE | | | | | | | ASSET_FINANCIAL_DETAIL | TABLE | | | | | | | ASSET_INVENTORY | TABLE | | | | | | | ASSET_INVENTORY_PLAN | TABLE | | | | | | | ASSET_INVENTORY_REPORT | TABLE | | | | | | | ASSET_ISLAND | TABLE | | | | | | | ASSET_ISLAND_PENDING | TABLE | | | | | | | ASSET_NORMAL | TABLE | | | | | | | ASSET_NORMAL_MOULD | TABLE | | | | | | | ASSET_NORMAL_PENDING | TABLE | | | | | | | ASSET_RECORD | TABLE | | | | | | | ASSET_RENT | TABLE | | | | | | | ASSET_ROOM | TABLE | | | | | | | ASSET_SCRAP | TABLE | | | | | | | ASSET_SEAL | TABLE | | | | | | | ASSET_TAKEAWAY | TABLE | | | | | | | ASSET_UNSEAL | TABLE | | | | | | | ITEM_TEST1 | TABLE | | | | | | | US_POPULATION | TABLE | | | | | | | US_POPULATION1 | TABLE | | | | +------------+--------------+-------------------------+---------------+----------+------------+-------+
从表 ASSET_RECORD 中查询前10条记录
: jdbc:phoenix:node3::/hbase> SELECT * FROM ASSET_RECORD LIMIT ;
返回信息
: jdbc:phoenix:node3::/hbase> SELECT * FROM ASSET_RECORD LIMIT ; +-----------------------------------+-------------------------+-------------------+---------------+---+ | ID | ASSET_ID | MANAGEMENT_TABLE | INTRODUCTION | | +-----------------------------------+-------------------------+-------------------+---------------+---+ | d083250dc0f74c3cb79b6ffe041fa4c3 | 仪6- | ASSET_CHECK | | | +-----------------------------------+-------------------------+-------------------+---------------+---+ row selected (0.066 seconds)
参考:
https://www.cnblogs.com/xiaoliu66007/p/9377922.html
https://www.cnblogs.com/linbingdong/p/5832112.html
Phoenix与HBase集成进行数据分析的更多相关文章
- 新闻实时分析系统Hive与HBase集成进行数据分析 Cloudera HUE大数据可视化分析
1.Hue 概述及版本下载 1)概述 Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python ...
- 新闻实时分析系统Hive与HBase集成进行数据分析
(一)Hive 概述 (二)Hive在Hadoop生态圈中的位置 (三)Hive 架构设计 (四)Hive 的优点及应用场景 (五)Hive 的下载和安装部署 1.Hive 下载 Apache版本的H ...
- 新闻网大数据实时分析可视化系统项目——12、Hive与HBase集成进行数据分析
(一)Hive 概述 (二)Hive在Hadoop生态圈中的位置 (三)Hive 架构设计 (四)Hive 的优点及应用场景 (五)Hive 的下载和安装部署 1.Hive 下载 Apache版本的H ...
- Hive与HBase集成进行数据分析
我们把hive的安装包上传的节点3来 解压 现在我们还是老规矩通过notopad++来连接我们的虚拟机来配置文件,把下面这两个文件重命名一下 修改这个文件 对hive-env.sh我们修改这里 下面我 ...
- 基于Phoenix对HBase建索引
参考: Phoenix与HBase集成进行数据分析 HBase查询速度慢原因排查 操作1,执行查询,如下: : jdbc:phoenix:node3::/hbase> SELECT * FROM ...
- HBase的部署与其它相关组件(Hive和Phoenix)的集成
HBase的部署与其它相关组件(Hive和Phoenix)的集成 一.HBase部署 1.1.Zookeeper正常部署 首先保证Zookeeper集群的正常部署,并启动之: /opt/module/ ...
- Phoneix(三)HBase集成Phoenix创建二级索引
一.Hbase集成Phoneix 1.下载 在官网http://www.apache.org/dyn/closer.lua/phoenix/中选择提供的镜像站点中下载与安装的HBase版本对应的版本. ...
- [saiku] 使用 Apache Phoenix and HBase 结合 saiku 做大数据查询分析
saiku不仅可以对传统的RDBMS里面的数据做OLAP分析,还可以对Nosql数据库如Hbase做统计分析. 本文简单介绍下一个使用saiku去查询分析hbase数据的例子. 1.phoenix和h ...
- 浅谈Phoenix在HBase中的应用
一.前言 业务使用HBase已经有一段时间了,期间也反馈了很多问题,其中反馈最多的是HBase是否支持SQL查询和二级索引,由于HBase在这两块上目前暂不支持,导致业务在使用时无法更好的利用现有的经 ...
随机推荐
- 一种ui app写法
方法一: $(function(){ // 定义一个对象 var qx={}; qx.ui={}; qx.ui.getleft=function(){ alert('qx.ui.getleft'); ...
- python--脚本传参与shell脚本传参(位置参数)
写一个最简单的shell脚本,了解shell脚本是如何传参 1. vim test1.sh name=$1 age=$2 echo ${name} echo ${age} 2.调用脚本并传参 sh t ...
- 在visual studio中快速添加代码段
昨天我在网课上,看到老师输入#2之后,立马就出现了一堆代码. 我于是赶紧打开自己的visual studio尝试一下,并没有任何反应. 上网查找,发现visual studio有自定义代码段的功能. ...
- DHT协议网络爬虫磁力链接和BT种子搜索引擎
系统功能和用到的技术. 系统包括几个独立的部分: 使用 Python 的 Scrapy 框架开发的网络爬虫,用来爬取磁力链接和种子: 使用 PHP CI 框架开发的简易网站: 搜索引擎目前直接使用的 ...
- 使用python实现离散时间傅里叶变换
以下内容引用链接:https://blog.csdn.net/baidu_37352210/article/details/79596633 (注意:通过如下内容可知,将序列信号进行傅里叶变换后,得到 ...
- CSS阴影 box-shadow属性用法
box-shadow: 它可以设置一个或者多个下拉阴影的框 语法:box-shadow:h-shadow v-shadow blur spread color inset 注意:该属性把一个或者多个下 ...
- getopts以参数形式执行diag
#!/bin/bash ################################################################################# # Copy ...
- fiddler 保存请求数据并发送到自己的服务器接口
通过Rules菜单打开 Customize Rules 搜索 OnBeforeResponse 方法,再方法后面添加如下代码: if (oSession.fullUrl.Contains(" ...
- 第1节 Scala基础语法:1、2、概述,什么是scala
Scala编程 1. 课程目标 1.1. 目标1:熟练使用scala编写Spark程序 1.2. 目标2:动手编写一个简易版的Spark通信框架 1.3. 目标3:为阅读Spark内核源码 ...
- SpringBoot之WEB开发-专题二
SpringBoot之WEB开发-专题二 三.Web开发 3.1.静态资源访问 在我们开发Web应用的时候,需要引用大量的js.css.图片等静态资源. 默认配置 Spring Boot默认提供静态资 ...