hive-0.11.0安装方法具体解释
先决条件:
1)java环境,须要安装java1.6以上版本号
2)hadoop环境,Hadoop-1.2.1的安装方法參考hadoop-1.2.1安装方法具体解释
本文採用的hadoop是hadoop-1.2.1。hive採用的是hive-0.11.0
hive有三种安装模式:
内嵌模式:元数据保持在内嵌的Derby模式。仅仅同意一个会话连接
本地独立模式:在本地安装Mysql,把元数据放到Mysql内
远程模式:元数据放置在远程的Mysql数据库
内嵌模式安装:
1、上传并解压hive-0.11.0.tar.gz
[hadoop@mdw temp]$ cp /mnt/cdrom/hive-0.11.0.tar.gz
.
[hadoop@mdw temp]$ tar xzf
hive-0.11.0.tar.gz
2、配置hive环境变量,改动 .bashrc文件,加入改动下面内容
export HIVE_HOME=/home/hadoop/hive-0.11.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin
3、复制/home/hadoop/hive-0.11.0/conf文件夹下的*.template文件生成相应的*.xml文件和*.properties文件
[hadoop@mdw conf]$ cp
hive-default.xml.template hive-site.xml
[hadoop@mdw conf]$ cp
hive-log4j.properties.template hive-log4j.properties
4、改动/home/hadoop/hive-0.11.0/bin/hive-config.sh配置文件。末尾加入下面配置
export JAVA_HOME=/usr/java/jdk1.6.0_45
export HADOOP_HOME=/home/hadoop/hadoop-1.2.1
export HIVE_HOME=/home/hadoop/hive-0.11.0
5、启动hive并进行測试
[hadoop@mdw ~]$ hive
Logging initialized using configuration in file:/home/hadoop/hive-0.11.0/conf/hive-log4j.properties
Hive history file=/tmp/hadoop/hive_job_log_hadoop_3118@mdw_201506060628_925403123.txt
hive> show
tables;
OK
Time taken: 4.711 seconds
hive> quit;
[hadoop@mdw ~]$
显示以上信息,就可以说明hive内嵌模式已经成功安装
独立模式安装:
在内嵌模式的基础上,继续安装
1、安装mysql。mysql的安装方法參考 linux安装mysql的方法
2、root用户登录mysql。创建hadoop用户并授权
mysql> create
user 'hadoop' identified by '123456';
Query OK, 0 rows affected (0.03 sec)
mysql> grant
all on *.* to hadoop@'%' with grant option;
Query OK, 0 rows affected (0.00 sec)
3、用hadoop用户登录mysql并创建hive专用数据库
mysql> create
database hive;
Query OK, 1 row affected (0.00 sec)
4、改动/home/hadoop/hive-0.11.0/conf/hive-site.xml 配置,改动信息例如以下:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://mdw:3306/hive?
=createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
5、上传并解压mysql驱动包,然后拷贝到hive的lib文件夹下
[hadoop@mdw mysql]$ cp
/mnt/cdrom/mysql-connector-java-5.1.29.tar.gz .
[hadoop@mdw mysql]$ tar
xzf mysql-connector-java-5.1.29.tar.gz
[hadoop@mdw mysql-connector-java-5.1.29]$ cp
mysql-connector-java-5.1.29-bin.jar /home/hadoop/hive-0.11.0/lib/
6、測试hive安装情况
[hadoop@mdw ~]$ hive
Logging initialized using configuration in file:/home/hadoop/hive-0.11.0/conf/hive-log4j.properties
Hive history file=/tmp/hadoop/hive_job_log_hadoop_3723@mdw_201506060714_1104310497.txt
hive> show
tables;
OK
Time taken: 8.004 seconds
hive>
显示以上内容则表示,hive独立模式已安装成功
远程模式安装:
在独立模式的基础上,改动/home/hadoop/hive-0.11.0/conf/hive-site.xml 配置,改动信息例如以下:
1、改动javax.jdo.option.ConnectionURL參数,调整主机名为远程机的主机名
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://远程主机的主机名:3306/hive?=createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
2、改动hive.metastore.uris參数,该參数默觉得空
<property>
<name>hive.metastore.uris</name>
<value>thrift://远程主机名:9083</value>
<description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
hive-0.11.0安装方法具体解释的更多相关文章
- hadoop2.2.0+hive-0.10.0完全分布式安装方法
hadoop+hive-0.10.0完全分布式安装方法 1.jdk版本:jdk-7u60-linux-x64.tar.gz http://www.oracle.com/technetwork/cn/j ...
- Windows下MySQL8.0.11.0安装教程
1.mysql下载地址:https://dev.mysql.com/downloads/installer/ 2.下载安装MySQL 8.0.11.0 https://cdn.mysql.com//D ...
- 自己动手破解Z.EntityFramework.Extensions 4.0.11.0的方法
因为项目中使用到Z.EntityFramework.Extensions 和 Z.EntityFramework.Plus(免费开源)两个类库,但是Z.EntityFramework.Extensio ...
- hbase-0.94安装方法具体解释
先决条件: 1)java环境,须要安装java1.6以上版本号 2)hadoop环境.因为HBase架构是基于其它文件存储系统的,因此在分布式模式下安装Hadoop是必须的,可是,假设 ...
- kafka 0.11.0.3 源码编译
首先下载 kafka 0.11.0.3 版本 源码: http://mirrors.hust.edu.cn/apache/kafka/0.11.0.3/ 下载源码 首先安装 gradle,不再说明 1 ...
- Kafka 0.11.0.0 实现 producer的Exactly-once 语义(官方DEMO)
<dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients&l ...
- ZooKeeper安装方法具体解释
ZooKeeper安装方式分为两种,一种为单机模式.一个为集群模式,集群模式须要事先正确配置hadoop集群,安装方法參考hadoop-1.2.1安装方法具体解释 单机模式安装: 1.上传并解压zoo ...
- hive 0.11的安装配置
一.上传hive 0.11解压后的文件到linux 1.用的版本是shark站点提供的,可能是针对shark修改了代码. 2.追加mysql.oracle两个jdbc驱动包到lib目录下. 二.配置相 ...
- redis(4.0.11)编译安装
一: redis数据库安装 系统环境:linux系统(centos/redhat):Red Hat Enterprise Linux Server release 6.8 (Santiago) red ...
随机推荐
- 一键生成Spring MVC + MyBatis + maven项目
首先创建一个新的maven项目,在src/main/java创建一个类Test 然后在Test复制以下代码: import java.io.*; import java.sql.Connection; ...
- Struts之 拦截器配置 ( Interceptor )
struts2体系结构的核心就是拦截器. 以链式执行,对真正要执行的方法(execute())进行拦截.首先执行Action配置的拦截器,在Action和Result执行之后,拦截器再一次执行(与先前 ...
- [ USACO 2007 OPEN ] Dining
\(\\\) \(Description\) 有\(N\)头牛,\(F\)种食物,\(D\)种饮料,每种食物和饮料只有一份. 现在已知每头牛可以吃哪些食物,可以喝哪些饮料,问最多可以让多少头牛可以同时 ...
- Python之IPython开发实践
Python之IPython开发实践 1. IPython有行号. 2. Tab键自动完成,当前命名空间任何与已输入字符串相匹配的变量就会被找出来. 3. 内省机制,在变量前或者后面加上(?)问号,就 ...
- [转]python模块全面
python模块 http://www.cnblogs.com/wupeiqi/articles/4963027.html 模块概念:用一砣代码实现了某个功能的代码集合. 类似于函数式编程和面向过程编 ...
- Java 6中类路径ClassPath对通配符的支持
在java 6之前,如果我们的应用依赖多个jar包,通常是将所有jar包文件枚举设置到环境变量CLASSPATH或者命令行参数-classpath(-cp)中.通常我们需要写一段shell脚本实现该功 ...
- Centos7 Openstack - (第二节)添加认证服务(Keystone)
Centos7 install Openstack - (第二节)添加认证服务(Keystone) 我的blog地址:http://www.cnblogs.com/caoguo 根据openstack ...
- 网络爬虫 robots协议 robots.txt
网络爬虫 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成.传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上 ...
- Servlet+JSP(三):第一个Web程序
Servlet+JSP(三):第一个Web程序在学习了服务器并成功安装后,我们知道当浏览器发送请求给服务器后,服务器会调用并执行对应的逻辑代码进行请求处理.逻辑代 码是由程序员自己编写然后放进服务器进 ...
- C#基础速学
原文地址 https://www.cnblogs.com/younShieh/p/10945264.html 前几天在刷即刻的时候发现了一个GitHub上的项目,该项目名为“learn x i ...