先决条件:

    1)java环境,须要安装java1.6以上版本号

    2)hadoop环境,Hadoop-1.2.1的安装方法參考hadoop-1.2.1安装方法具体解释



本文採用的hadoop是hadoop-1.2.1。hive採用的是hive-0.11.0



hive有三种安装模式:

内嵌模式:元数据保持在内嵌的Derby模式。仅仅同意一个会话连接

本地独立模式:在本地安装Mysql,把元数据放到Mysql内

远程模式:元数据放置在远程的Mysql数据库



内嵌模式安装:

1、上传并解压hive-0.11.0.tar.gz

[hadoop@mdw temp]$ cp /mnt/cdrom/hive-0.11.0.tar.gz
.

[hadoop@mdw temp]$ tar xzf
hive-0.11.0.tar.gz



2、配置hive环境变量,改动 .bashrc文件,加入改动下面内容

export HIVE_HOME=/home/hadoop/hive-0.11.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin

3、复制/home/hadoop/hive-0.11.0/conf文件夹下的*.template文件生成相应的*.xml文件和*.properties文件

[hadoop@mdw conf]$ cp
hive-default.xml.template hive-site.xml

[hadoop@mdw conf]$ cp
hive-log4j.properties.template hive-log4j.properties



4、改动/home/hadoop/hive-0.11.0/bin/hive-config.sh配置文件。末尾加入下面配置

export JAVA_HOME=/usr/java/jdk1.6.0_45

export HADOOP_HOME=/home/hadoop/hadoop-1.2.1

export HIVE_HOME=/home/hadoop/hive-0.11.0



5、启动hive并进行測试

[hadoop@mdw ~]$ hive

Logging initialized using configuration in file:/home/hadoop/hive-0.11.0/conf/hive-log4j.properties

Hive history file=/tmp/hadoop/hive_job_log_hadoop_3118@mdw_201506060628_925403123.txt

hive> show
tables;

OK

Time taken: 4.711 seconds

hive> quit;

[hadoop@mdw ~]$ 





显示以上信息,就可以说明hive内嵌模式已经成功安装





独立模式安装:

在内嵌模式的基础上,继续安装

1、安装mysql。mysql的安装方法參考 linux安装mysql的方法



2、root用户登录mysql。创建hadoop用户并授权

mysql> create
user 'hadoop' identified by '123456';

Query OK, 0 rows affected (0.03 sec)

mysql> grant
all on *.* to hadoop@'%' with grant option;

Query OK, 0 rows affected (0.00 sec)





3、用hadoop用户登录mysql并创建hive专用数据库

mysql> create
database hive;

Query OK, 1 row affected (0.00 sec)





4、改动/home/hadoop/hive-0.11.0/conf/hive-site.xml 配置,改动信息例如以下:

<property>

  <name>javax.jdo.option.ConnectionURL</name>

  <value>jdbc:mysql://mdw:3306/hive?

=createDatabaseIfNotExist=true</value>

  <description>JDBC connect string for a JDBC metastore</description>

</property>

<property>

  <name>javax.jdo.option.ConnectionDriverName</name>

  <value>com.mysql.jdbc.Driver</value>

  <description>Driver class name for a JDBC metastore</description>

</property>

<property>

  <name>javax.jdo.option.ConnectionUserName</name>

  <value>hadoop</value>

  <description>username to use against metastore database</description>

</property>

<property>

  <name>javax.jdo.option.ConnectionPassword</name>

  <value>123456</value>

  <description>password to use against metastore database</description>

</property>





5、上传并解压mysql驱动包,然后拷贝到hive的lib文件夹下

[hadoop@mdw mysql]$ cp
/mnt/cdrom/mysql-connector-java-5.1.29.tar.gz .

[hadoop@mdw mysql]$ tar
xzf mysql-connector-java-5.1.29.tar.gz 



[hadoop@mdw mysql-connector-java-5.1.29]$ cp
mysql-connector-java-5.1.29-bin.jar /home/hadoop/hive-0.11.0/lib/



6、測试hive安装情况

[hadoop@mdw ~]$ hive

Logging initialized using configuration in file:/home/hadoop/hive-0.11.0/conf/hive-log4j.properties

Hive history file=/tmp/hadoop/hive_job_log_hadoop_3723@mdw_201506060714_1104310497.txt

hive> show
tables;

OK

Time taken: 8.004 seconds

hive>





显示以上内容则表示,hive独立模式已安装成功



远程模式安装:

在独立模式的基础上,改动/home/hadoop/hive-0.11.0/conf/hive-site.xml 配置,改动信息例如以下:

1、改动javax.jdo.option.ConnectionURL參数,调整主机名为远程机的主机名

<property>

  <name>javax.jdo.option.ConnectionURL</name>

  <value>jdbc:mysql://远程主机的主机名:3306/hive?=createDatabaseIfNotExist=true</value>

  <description>JDBC connect string for a JDBC metastore</description>

</property>





2、改动hive.metastore.uris參数,该參数默觉得空

<property>

  <name>hive.metastore.uris</name>

  <value>thrift://远程主机名:9083</value>

  <description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>

</property>

hive-0.11.0安装方法具体解释的更多相关文章

  1. hadoop2.2.0+hive-0.10.0完全分布式安装方法

    hadoop+hive-0.10.0完全分布式安装方法 1.jdk版本:jdk-7u60-linux-x64.tar.gz http://www.oracle.com/technetwork/cn/j ...

  2. Windows下MySQL8.0.11.0安装教程

    1.mysql下载地址:https://dev.mysql.com/downloads/installer/ 2.下载安装MySQL 8.0.11.0 https://cdn.mysql.com//D ...

  3. 自己动手破解Z.EntityFramework.Extensions 4.0.11.0的方法

    因为项目中使用到Z.EntityFramework.Extensions 和 Z.EntityFramework.Plus(免费开源)两个类库,但是Z.EntityFramework.Extensio ...

  4. hbase-0.94安装方法具体解释

    先决条件:     1)java环境,须要安装java1.6以上版本号     2)hadoop环境.因为HBase架构是基于其它文件存储系统的,因此在分布式模式下安装Hadoop是必须的,可是,假设 ...

  5. kafka 0.11.0.3 源码编译

    首先下载 kafka 0.11.0.3 版本 源码: http://mirrors.hust.edu.cn/apache/kafka/0.11.0.3/ 下载源码 首先安装 gradle,不再说明 1 ...

  6. Kafka 0.11.0.0 实现 producer的Exactly-once 语义(官方DEMO)

    <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients&l ...

  7. ZooKeeper安装方法具体解释

    ZooKeeper安装方式分为两种,一种为单机模式.一个为集群模式,集群模式须要事先正确配置hadoop集群,安装方法參考hadoop-1.2.1安装方法具体解释 单机模式安装: 1.上传并解压zoo ...

  8. hive 0.11的安装配置

    一.上传hive 0.11解压后的文件到linux 1.用的版本是shark站点提供的,可能是针对shark修改了代码. 2.追加mysql.oracle两个jdbc驱动包到lib目录下. 二.配置相 ...

  9. redis(4.0.11)编译安装

    一: redis数据库安装 系统环境:linux系统(centos/redhat):Red Hat Enterprise Linux Server release 6.8 (Santiago) red ...

随机推荐

  1. EasyUI系列学习(二)-使用EasyUI

    一.引入必要文件 <!--1.0引入jQuery核心库--> <script src="jquery-easyui-1.4.4/jquery.min.js"> ...

  2. 笨拙而诡异的 Oracle

    有这样一段 SQL 代码: 通过 C# 获取查询结果:    SQL 代码中有两个参数,且都是字符串类型,以上的 C# 代码是生成 Oracle SQL 代码所需要的参数.运行结果如下:   居然发生 ...

  3. 6.10---mybatis中两张表查询数据dao层

  4. Eclipse中搭建Apache Tomcat7源码调试环境

    第一步:获取Apache Tomcat7源码,读者可以从Apache 官方网站获取,官方下载地址: http://tomcat.apache.org/download-70.cgi 注意选择Sourc ...

  5. 增加删除div

    <!doctype html><html><head><meta charset="utf-8"><title>无标题文 ...

  6. 我的liunx开发环境的配置之路

    相信有不少人和我一样,虽然是做纯linux开发,但并不排斥windows,并且喜欢在windows下面的使用各种好用的工具来让linux的编程工作变得更加方便.实际上每一个系统都有他的过人支持,win ...

  7. RTL Compiler之Example

    Synthesis = Translation +  Logic Optimization + Mapping Step 1 Source files 1) make directory mkdir ...

  8. JSP学习笔记 - 内置对象 Request

    1.主要掌握以下5个内置对象及其所属类,必须学会在java docs里根据类名查找相应的方法 request     javax.servlet.http.HttpServletRequest res ...

  9. img、a标签的使用

    <!doctype html><html><head><meta charset="utf-8"><title>无标题文 ...

  10. Linux常用命令(简单的常用)

      1. 文件和目录 cd /home 进入 '/ home' 目录' cd .. 返回上一级目录 cd ../.. 返回上两级目录 cd 进入个人的主目录 cd ~user1 进入个人的主目录 cd ...