Hive记录-单机impala配置
1.先决条件配置了hadoop、hive等
2.官网查看版本信息下载相应的安装包
http://archive.cloudera.com/cdh5/redhat/5/x86_64/cdh/5.10/RPMS/x86_64/
3.安装一些依赖包:mysql-connector-java、bigtop-jscv、bigtop-utils、libevent、libevent-devel、redhat-lsb、python-setuptools、cyrus-sasl.x86_64、sentry等
4.依次执行rpm -ivh 上述包 --nodeps
NameNode---impala-2.7.0 impala-catalog impala-state-store impala-udf-devel
DataNode---impala-2.7.0 impala-shell impala-udf-devel impala-server
5.find / -name impala查看位置
/etc/default/impala
/etc/alternatives/impala
/etc/impala
/usr/lib/impala
/var/lib/alternatives/impala
/var/lib/impala
/var/run/impala
/var/log/impala
6.修改配置,hdfs.site.xml添加以下内容:
#mkdir -p /var/run/hadoop-hdfs
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hadoop-hdfs/dn._PORT</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
----------------单机合并在一起,多机,以下为DataNode要加上超时参数,以上为NameNode
<property>
<name>dfs.client.use.legacy.blockreader.local</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.data.dir.perm</name>
<value>750</value>
</property>
<property>
<name>dfs.block.local-path-access.user</name>
<value>root</value>
</property>
-----------------------------------------------------------------------------------------
7.修改hive-site.xml配置:
<property>
<name>hive.metastore.uris</name>
<value>thrift://192.168.66.66:9083</value>
</property>
<property>
<name>hive.metastore.client.socket.timeout</name>
<value>3600</value>
</property>
8. 配置impala的参数,impala的配置文件在/etc/default/impala之中
IMPALA_CATALOG_SERVICE_HOST=192.168.66.66
IMPALA_STATE_STORE_HOST=192.168.66.66
IMPALA_STATE_STORE_PORT=24000
IMPALA_BACKEND_PORT=22000
IMPALA_LOG_DIR=/var/log/impala
IMPALA_CATALOG_ARGS=" -log_dir=${IMPALA_LOG_DIR} "
IMPALA_STATE_STORE_ARGS=" -log_dir=${IMPALA_LOG_DIR} -state_store_port=${IMPALA_STATE_STORE_PORT}"
IMPALA_SERVER_ARGS=" \
-log_dir=${IMPALA_LOG_DIR} \
-catalog_service_host=${IMPALA_CATALOG_SERVICE_HOST} \
-state_store_port=${IMPALA_STATE_STORE_PORT} \
-use_statestore \
-state_store_host=${IMPALA_STATE_STORE_HOST} \
-be_port=${IMPALA_BACKEND_PORT}
-mem_limit=60%"
ENABLE_CORE_DUMPS=false
LIBHDFS_OPTS=-Djava.library.path=/usr/lib/impala/lib
MYSQL_CONNECTOR_JAR=/usr/app/tomcat8089/lib/mysql-connector-*.jar
IMPALA_BIN=/usr/lib/impala/sbin
IMPALA_HOME=/usr/lib/impala
HIVE_HOME=/usr/app/hive
HBASE_HOME=/usr/app/hbase
IMPALA_CONF_DIR=/etc/impala/conf
HADOOP_CONF_DIR=/usr/app/hadoop/etc/hadoop
HIVE_CONF_DIR=/usr/app/hive/conf
HADOOP_HOME=/usr/app/hadoop
HBASE_CONF_DIR=/usr/app/hbase/conf
9. 在/etc/default/bigtop-utils中设置JAVA_HOME
export JAVA_HOME=/usr/app/jdk1.8.0
export CLASSPATH=./:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH
10.
进入/etc/init.d目录 修改impala-catalog操作权限,将impala改成集群的用户名。
进入/etc/init.d目录修改impala-state-store操作权限,将impala改成集群的用户名。
进入/etc/init.d目录修改impala-server操作权限,将impala改成集群的用户名。
将hadoop安装目录下的hdfs-site.xml,core-site.xml拷贝到/etc/impala/conf目录下
将hive安装目录下的hive-site.xml拷贝到/etc/impala/conf目录下
将hbase安装目录下的hbase-site.xml拷贝到/etc/impala/conf目录下
运行软件提示:
error while loading shared libraries: libssl.so.6: cannot open shared object file: No such file or directory
执行find / -name libssl.so*
/usr/lib64/libssl.so.1.0.1e
/usr/lib64/libssl.so.10
解决方法:
for 32bit
ln -sf /usr/lib/libssl.so.10 /usr/lib/libssl.so.6
ln -sf /usr/lib/libcrypto.so.10 /usr/lib/libcrypto.so.6
for 64bit
ln -sf /usr/lib64/libssl.so.10 /usr/lib64/libssl.so.6
ln -sf /usr/lib64/libcrypto.so.10 /usr/lib64/libcrypto.so.6
11.根据实际情况安装的hadoop、hive、hbase调整lib库等文件
#删掉/usr/lib/impala/lib相关hadoop、hive、hbase lib jar文件,拷贝已经安装的hadoop/hive/hbase lib jar包,
包名要与删除前的一致。
12.启动
#启动hadoop
#启动hbase
#启动hive
#nohup hive --service metastore &
#nohup hive --service hiveserver2 &
/etc/init.d/impala-state-store start
/etc/init.d/impala-catalog start
/etc/init.d/impala-server start
13.验证
第一种方式:
ps -aux|grep impala-catalog
ps -aux|grep impala-state
ps -aux|grep impalad
第二种方式:
impala-shell(默认连接本机的server)
impala-shell -i 192.168.66.66 //连接指定ip的server impala-shell 如果是no connect状态 可以输入connect 192.168.66.66进行连接
第三种方式(webUI):
192.168.66.66:25000
192.168.66.66:25010
192.168.66.66:25020
6.其他
Impala Daemon(Impala 守护进程前端端口):21000 >> impala-shell, Beeswax, Cloudera ODBC 1.2 驱动 用于传递命令和接收结果
Impala Daemon(Impala 守护进程前端端口):21050 >> 被使用 JDBC 或 Cloudera ODBC 2.0 及以上驱动的诸如 BI 工具之类的应用用来传递命令和接收结果
Impala Daemon(Impala 守护进程后端端口):22000 >> Impala 守护进程用该端口互相通讯
Impala Daemon(StateStore订阅服务端口):23000 >> Impala 守护进程监听该端口接收来源于 state store 的更新
StateStore Daemon(StateStore 服务端口):24000 >> State store 监听该端口的 registration/unregistration 请求
Catalog Daemon(StateStore 服务端口):26000 >> 目录服务使用该端口与Imp
Impala Daemon(HTTP 服务器端口):25000 >> Impala web 接口,管理员用于监控和故障排除
StateStore Daemon(HTTP 服务器端口):25010 >> StateStore web 接口,管理员用于监控和故障排除
Catalog Daemon(HTTP 服务器端口):25020 >> 目录服务 web 接口,管理员用于监控和故障排除,Impala 1.2 开始使用
Hive记录-单机impala配置的更多相关文章
- Hive记录-配置远程连接(JAVA/beeline)
1.修改配置hive-site.xml hadoop core-site.xml限制---参考Hive记录-部署Hive环境 2.启动hadoop #sh /usr/app/hadoop/sbi ...
- Hive on Spark安装配置详解(都是坑啊)
个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...
- Hive 教程(五)-参数配置
配置基本操作 hive> set; 查看所有配置hive> set key: 查看某个配置hive> set key value: 设置某个配置 我们可以看到一些 hadoop 的配 ...
- Linux下Kafka单机安装配置方法(图文)
Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了 ...
- (转)单机上配置hadoop
哈哈,几天连续收到百度两次电话,均是利好消息,于是乎不知不觉的自己的工作效率也提高了,几天折腾了好久终于在单机上配置好了hadoop,然后也成功的运行了一个用例,耶耶耶耶耶耶. 转自:http://w ...
- Hive默认数据库修改配置
此文是基于上一篇文章:Hive环境搭建及测试 因为Hive默认的数据库是derby,不支持同时开启两个./hive的命令终端: 而将Hive的默认数据库修改成mysql后,可以解决该问题. 仅在安装H ...
- Hive记录-Hive on Spark环境部署
1.hive执行引擎 Hive默认使用MapReduce作为执行引擎,即Hive on mr.实际上,Hive还可以使用Tez和Spark作为其执行引擎,分别为Hive on Tez和Hive on ...
- Ubuntu16.04下Hive的安装与配置
一.系统环境 os : Ubuntu 16.04 LTS 64bit jdk : 1.8.0_161 hadoop : 2.6.4mysql : 5.7.21 hive : 2.1.0 在配置hive ...
- Linux下Kafka单机安装配置方法
Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: •Kafka将消息以topi ...
随机推荐
- java数值运算后精度丢失问题
最近连续俩次遇到运算后数值精度丢失问题,所以记录一下. 问题1:java计算百分比,应该得到57,可返回的就是56 在java代码中 BigDecimal progress; BigDecimal a ...
- [2017BUAA软件工程]第0次作业
第一部分:结缘计算机 1. 你为什么选择计算机专业?你认为你的条件如何?和这些博主比呢?(必答) 选择计算机专业的一个重要原因是因为计算机专业的就业前景好,由于计算机本身具有的各种优点,现在几乎所有的 ...
- spring-web-4.3.3与spring-webmvc-4.3.3的区别
spring-web-4.3.3 http(http协议的实现类)和web包(应用,上下文,会话,cookies,过滤器等等) spring-webmvc-4.3.3 主要是一些view层的核心封装, ...
- git查看分支图
git log --graph --decorate --oneline --simplify-by-decoration --all
- Oracle12c Clone PDB 的方法
1. 创建PDB的存放路径,举例: 2. 设置 数据库创建数据文件的目录 alter system set db_Create_file_dest='C:\app\Administrator\orad ...
- Jquery Jquery对象和DOM对象的微妙联系
声明变量 var $variable= Jquery 对象: var varibake= DOM对象: var $cr= $("#id&q ...
- FICO基础知识(二)
FI中的maser data: COA (Chart Of Account) 科目表 Account 科目 Vendor master dada 供应商主数据 Customer master da ...
- GROUP BY 聚合函数(max min sum avg count) 和HAVING的 使用
重新复习一下这个都源自于我经常需要查的一个需求 “要找到表里面 出现了两次或者三次的某个字段” 现在假设有一张表字段是 +----+---------------------+------------ ...
- 百度/头条合作命中注定!中国新BAT要来了
据外媒报道,今日头条母公司字节跳动(ByteDace)将为中国互联网传统BAT的格局,带来一些新的活力.这家增速飞快的新闻.视频App“制造者”已经估值高达750亿美元,与三巨头之一的百度平起平坐,后 ...
- Spark_RDD之RDD操作简介
1.转化操作 转化操作是返回一个新的RDD的操作,我们可以使用filter()方法进行转化.举个使用scala进行转化操作的例子. def main(args: Array[String]): Uni ...