1.先决条件配置了hadoop、hive等

2.官网查看版本信息下载相应的安装包

http://archive.cloudera.com/cdh5/redhat/5/x86_64/cdh/5.10/RPMS/x86_64/

3.安装一些依赖包:mysql-connector-java、bigtop-jscv、bigtop-utils、libevent、libevent-devel、redhat-lsb、python-setuptools、cyrus-sasl.x86_64、sentry等

4.依次执行rpm   -ivh  上述包  --nodeps

NameNode---impala-2.7.0   impala-catalog  impala-state-store impala-udf-devel

DataNode---impala-2.7.0    impala-shell   impala-udf-devel  impala-server

5.find / -name impala查看位置

/etc/default/impala

/etc/alternatives/impala

/etc/impala

/usr/lib/impala

/var/lib/alternatives/impala

/var/lib/impala

/var/run/impala

/var/log/impala

6.修改配置,hdfs.site.xml添加以下内容:

#mkdir -p /var/run/hadoop-hdfs

<property>

    <name>dfs.client.read.shortcircuit</name>

    <value>true</value>

</property>

<property>

    <name>dfs.domain.socket.path</name>

    <value>/var/run/hadoop-hdfs/dn._PORT</value>

</property>

<property>

    <name>dfs.client.file-block-storage-locations.timeout.millis</name>

    <value>10000</value>

</property>

----------------单机合并在一起,多机,以下为DataNode要加上超时参数,以上为NameNode

<property>

   <name>dfs.client.use.legacy.blockreader.local</name>

   <value>true</value>

</property>

<property>

   <name>dfs.datanode.data.dir.perm</name>

   <value>750</value>

</property>

<property>

   <name>dfs.block.local-path-access.user</name>

   <value>root</value>

</property>

-----------------------------------------------------------------------------------------

7.修改hive-site.xml配置:

<property>

 <name>hive.metastore.uris</name>

 <value>thrift://192.168.66.66:9083</value>

</property>

<property>

<name>hive.metastore.client.socket.timeout</name>

<value>3600</value>

</property>

8. 配置impala的参数,impala的配置文件在/etc/default/impala之中

IMPALA_CATALOG_SERVICE_HOST=192.168.66.66

IMPALA_STATE_STORE_HOST=192.168.66.66

IMPALA_STATE_STORE_PORT=24000

IMPALA_BACKEND_PORT=22000

IMPALA_LOG_DIR=/var/log/impala



IMPALA_CATALOG_ARGS=" -log_dir=${IMPALA_LOG_DIR} "

IMPALA_STATE_STORE_ARGS=" -log_dir=${IMPALA_LOG_DIR} -state_store_port=${IMPALA_STATE_STORE_PORT}"

IMPALA_SERVER_ARGS=" \

    -log_dir=${IMPALA_LOG_DIR} \

    -catalog_service_host=${IMPALA_CATALOG_SERVICE_HOST} \

    -state_store_port=${IMPALA_STATE_STORE_PORT} \

    -use_statestore \

    -state_store_host=${IMPALA_STATE_STORE_HOST} \

    -be_port=${IMPALA_BACKEND_PORT}

    -mem_limit=60%"





ENABLE_CORE_DUMPS=false



LIBHDFS_OPTS=-Djava.library.path=/usr/lib/impala/lib

MYSQL_CONNECTOR_JAR=/usr/app/tomcat8089/lib/mysql-connector-*.jar

IMPALA_BIN=/usr/lib/impala/sbin

IMPALA_HOME=/usr/lib/impala

HIVE_HOME=/usr/app/hive

HBASE_HOME=/usr/app/hbase

IMPALA_CONF_DIR=/etc/impala/conf

HADOOP_CONF_DIR=/usr/app/hadoop/etc/hadoop

HIVE_CONF_DIR=/usr/app/hive/conf

HADOOP_HOME=/usr/app/hadoop

HBASE_CONF_DIR=/usr/app/hbase/conf

9. 在/etc/default/bigtop-utils中设置JAVA_HOME

export JAVA_HOME=/usr/app/jdk1.8.0

export CLASSPATH=./:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH

10.

进入/etc/init.d目录  修改impala-catalog操作权限,将impala改成集群的用户名。

进入/etc/init.d目录修改impala-state-store操作权限,将impala改成集群的用户名。

进入/etc/init.d目录修改impala-server操作权限,将impala改成集群的用户名。

将hadoop安装目录下的hdfs-site.xml,core-site.xml拷贝到/etc/impala/conf目录下

将hive安装目录下的hive-site.xml拷贝到/etc/impala/conf目录下

将hbase安装目录下的hbase-site.xml拷贝到/etc/impala/conf目录下

运行软件提示:

error while loading shared libraries: libssl.so.6: cannot open shared object file: No such file or directory

执行find  / -name libssl.so*

/usr/lib64/libssl.so.1.0.1e

/usr/lib64/libssl.so.10

解决方法:

for 32bit

ln -sf /usr/lib/libssl.so.10 /usr/lib/libssl.so.6

ln -sf /usr/lib/libcrypto.so.10 /usr/lib/libcrypto.so.6



for 64bit

ln -sf /usr/lib64/libssl.so.10 /usr/lib64/libssl.so.6

ln -sf /usr/lib64/libcrypto.so.10 /usr/lib64/libcrypto.so.6

11.根据实际情况安装的hadoop、hive、hbase调整lib库等文件

#删掉/usr/lib/impala/lib相关hadoop、hive、hbase lib jar文件,拷贝已经安装的hadoop/hive/hbase lib jar包,

包名要与删除前的一致。

12.启动

#启动hadoop

#启动hbase

#启动hive

#nohup hive --service metastore &

#nohup hive --service hiveserver2 &

/etc/init.d/impala-state-store start

/etc/init.d/impala-catalog start

/etc/init.d/impala-server start

13.验证

  第一种方式:

    ps -aux|grep impala-catalog

    ps -aux|grep impala-state

    ps -aux|grep impalad

  第二种方式:

    impala-shell(默认连接本机的server)

    impala-shell -i 192.168.66.66 //连接指定ip的server impala-shell 如果是no connect状态 可以输入connect 192.168.66.66进行连接

   第三种方式(webUI):

    192.168.66.66:25000

    192.168.66.66:25010

    192.168.66.66:25020

6.其他

  Impala Daemon(Impala 守护进程前端端口):21000 >> impala-shell, Beeswax, Cloudera ODBC 1.2 驱动 用于传递命令和接收结果

  Impala Daemon(Impala 守护进程前端端口):21050 >> 被使用 JDBC 或 Cloudera ODBC 2.0 及以上驱动的诸如 BI 工具之类的应用用来传递命令和接收结果

  Impala Daemon(Impala 守护进程后端端口):22000 >> Impala 守护进程用该端口互相通讯

  Impala Daemon(StateStore订阅服务端口):23000 >> Impala 守护进程监听该端口接收来源于 state store 的更新

  StateStore Daemon(StateStore 服务端口):24000 >> State store 监听该端口的 registration/unregistration 请求

  Catalog Daemon(StateStore 服务端口):26000 >> 目录服务使用该端口与Imp

  Impala Daemon(HTTP 服务器端口):25000 >> Impala web 接口,管理员用于监控和故障排除

  StateStore Daemon(HTTP 服务器端口):25010 >> StateStore web 接口,管理员用于监控和故障排除

  Catalog Daemon(HTTP 服务器端口):25020 >> 目录服务 web 接口,管理员用于监控和故障排除,Impala 1.2 开始使用

Hive记录-单机impala配置的更多相关文章

  1. Hive记录-配置远程连接(JAVA/beeline)

    1.修改配置hive-site.xml    hadoop core-site.xml限制---参考Hive记录-部署Hive环境 2.启动hadoop #sh /usr/app/hadoop/sbi ...

  2. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  3. Hive 教程(五)-参数配置

    配置基本操作 hive> set; 查看所有配置hive> set key: 查看某个配置hive> set key value: 设置某个配置 我们可以看到一些 hadoop 的配 ...

  4. Linux下Kafka单机安装配置方法(图文)

    Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了 ...

  5. (转)单机上配置hadoop

    哈哈,几天连续收到百度两次电话,均是利好消息,于是乎不知不觉的自己的工作效率也提高了,几天折腾了好久终于在单机上配置好了hadoop,然后也成功的运行了一个用例,耶耶耶耶耶耶. 转自:http://w ...

  6. Hive默认数据库修改配置

    此文是基于上一篇文章:Hive环境搭建及测试 因为Hive默认的数据库是derby,不支持同时开启两个./hive的命令终端: 而将Hive的默认数据库修改成mysql后,可以解决该问题. 仅在安装H ...

  7. Hive记录-Hive on Spark环境部署

    1.hive执行引擎 Hive默认使用MapReduce作为执行引擎,即Hive on mr.实际上,Hive还可以使用Tez和Spark作为其执行引擎,分别为Hive on Tez和Hive on ...

  8. Ubuntu16.04下Hive的安装与配置

    一.系统环境 os : Ubuntu 16.04 LTS 64bit jdk : 1.8.0_161 hadoop : 2.6.4mysql : 5.7.21 hive : 2.1.0 在配置hive ...

  9. Linux下Kafka单机安装配置方法

    Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢? 首先让我们看几个基本的消息系统术语: •Kafka将消息以topi ...

随机推荐

  1. 自定义组件的 v-model

    Vue.component('base-checkbox', { model: { prop: 'checked', event: 'change' }, props: { checked: Bool ...

  2. [转帖]龙芯下一代处理器微结构GS464E细节曝光

    龙芯下一代处理器微结构GS464E细节曝光 [日期:2015-05-26] 来源:Linux公社  作者:Linux [字体:大 中 小] http://www.linuxidc.com/Linux/ ...

  3. php开发APP接口(总结一)

    一.什么是app接口:服务端与客户端的数据交互. 大部分APP接口是通过http协议通信的. http通信的三要素: URL:   通信的地址 Method:通信的方式(get | post | pu ...

  4. rabbitmq使用报错总结

    最近公司重构服务器架构,需要用到rabbitmq,在公司搞了一个下午还是连接不上,后来细看了英文说明,测试连接成功,得出如下报错几点. 我用的安装包:otp_win64_21.3.exe(erlang ...

  5. 学习记录特别篇之sql,类的继承

    思路: 应用场景: 1.将父类当做一个基础类 大家都去继承该方法,以便少些代码 2.继承父类的方法 同时可以重写该方法时候调用父类原先的方法 实现一石二鸟的效果 即 既增加原先的功能 又新增新的功能 ...

  6. mybatis的缓存机制(一级缓存二级缓存和刷新缓存)和mybatis整合ehcache

    1.1  什么是查询缓存 mybatis提供查询缓存,用于减轻数据压力,提高数据库性能. mybaits提供一级缓存,和二级缓存. 一级缓存是SqlSession级别的缓存.在操作数据库时需要构造 s ...

  7. Git分支合并

    大致描述一下 上次为了解决bug新建了一个bugfix分支,并提交了c5(这个1,2,3,4,5具体的可能和图片对应不太一样,但是结构一样),下面就该把bugfix与master进行整合,整合之后就可 ...

  8. 【POI每日题解 #9】SKA-Piggy Banks

    题目链接 题意: 有一棵环套树 求最少从多少个节点出发能沿边走过整棵树 环套树 并查集求联通块 有几块就砸几个 太简单不发代码了 不过某大佬的环套树找环dfs让我研究了好久… 贴一下以Orz #inc ...

  9. pandas的筛选功能,跟excel的筛选功能类似,但是功能更强大。

    Select rows from a DataFrame based on values in a column -pandas 筛选 https://stackoverflow.com/questi ...

  10. Hdoj 1008.Elevator 题解

    Problem Description The highest building in our city has only one elevator. A request list is made u ...