hive-0.11.0安装方法具体解释
先决条件:
1)java环境,须要安装java1.6以上版本号
2)hadoop环境,Hadoop-1.2.1的安装方法參考hadoop-1.2.1安装方法具体解释
本文採用的hadoop是hadoop-1.2.1。hive採用的是hive-0.11.0
hive有三种安装模式:
内嵌模式:元数据保持在内嵌的Derby模式。仅仅同意一个会话连接
本地独立模式:在本地安装Mysql,把元数据放到Mysql内
远程模式:元数据放置在远程的Mysql数据库
内嵌模式安装:
1、上传并解压hive-0.11.0.tar.gz
[hadoop@mdw temp]$ cp /mnt/cdrom/hive-0.11.0.tar.gz
.
[hadoop@mdw temp]$ tar xzf
hive-0.11.0.tar.gz
2、配置hive环境变量,改动 .bashrc文件,加入改动下面内容
export HIVE_HOME=/home/hadoop/hive-0.11.0
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin
3、复制/home/hadoop/hive-0.11.0/conf文件夹下的*.template文件生成相应的*.xml文件和*.properties文件
[hadoop@mdw conf]$ cp
hive-default.xml.template hive-site.xml
[hadoop@mdw conf]$ cp
hive-log4j.properties.template hive-log4j.properties
4、改动/home/hadoop/hive-0.11.0/bin/hive-config.sh配置文件。末尾加入下面配置
export JAVA_HOME=/usr/java/jdk1.6.0_45
export HADOOP_HOME=/home/hadoop/hadoop-1.2.1
export HIVE_HOME=/home/hadoop/hive-0.11.0
5、启动hive并进行測试
[hadoop@mdw ~]$ hive
Logging initialized using configuration in file:/home/hadoop/hive-0.11.0/conf/hive-log4j.properties
Hive history file=/tmp/hadoop/hive_job_log_hadoop_3118@mdw_201506060628_925403123.txt
hive> show
tables;
OK
Time taken: 4.711 seconds
hive> quit;
[hadoop@mdw ~]$
显示以上信息,就可以说明hive内嵌模式已经成功安装
独立模式安装:
在内嵌模式的基础上,继续安装
1、安装mysql。mysql的安装方法參考 linux安装mysql的方法
2、root用户登录mysql。创建hadoop用户并授权
mysql> create
user 'hadoop' identified by '123456';
Query OK, 0 rows affected (0.03 sec)
mysql> grant
all on *.* to hadoop@'%' with grant option;
Query OK, 0 rows affected (0.00 sec)
3、用hadoop用户登录mysql并创建hive专用数据库
mysql> create
database hive;
Query OK, 1 row affected (0.00 sec)
4、改动/home/hadoop/hive-0.11.0/conf/hive-site.xml 配置,改动信息例如以下:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://mdw:3306/hive?
=createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
5、上传并解压mysql驱动包,然后拷贝到hive的lib文件夹下
[hadoop@mdw mysql]$ cp
/mnt/cdrom/mysql-connector-java-5.1.29.tar.gz .
[hadoop@mdw mysql]$ tar
xzf mysql-connector-java-5.1.29.tar.gz
[hadoop@mdw mysql-connector-java-5.1.29]$ cp
mysql-connector-java-5.1.29-bin.jar /home/hadoop/hive-0.11.0/lib/
6、測试hive安装情况
[hadoop@mdw ~]$ hive
Logging initialized using configuration in file:/home/hadoop/hive-0.11.0/conf/hive-log4j.properties
Hive history file=/tmp/hadoop/hive_job_log_hadoop_3723@mdw_201506060714_1104310497.txt
hive> show
tables;
OK
Time taken: 8.004 seconds
hive>
显示以上内容则表示,hive独立模式已安装成功
远程模式安装:
在独立模式的基础上,改动/home/hadoop/hive-0.11.0/conf/hive-site.xml 配置,改动信息例如以下:
1、改动javax.jdo.option.ConnectionURL參数,调整主机名为远程机的主机名
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://远程主机的主机名:3306/hive?=createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
2、改动hive.metastore.uris參数,该參数默觉得空
<property>
<name>hive.metastore.uris</name>
<value>thrift://远程主机名:9083</value>
<description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
hive-0.11.0安装方法具体解释的更多相关文章
- hadoop2.2.0+hive-0.10.0完全分布式安装方法
hadoop+hive-0.10.0完全分布式安装方法 1.jdk版本:jdk-7u60-linux-x64.tar.gz http://www.oracle.com/technetwork/cn/j ...
- Windows下MySQL8.0.11.0安装教程
1.mysql下载地址:https://dev.mysql.com/downloads/installer/ 2.下载安装MySQL 8.0.11.0 https://cdn.mysql.com//D ...
- 自己动手破解Z.EntityFramework.Extensions 4.0.11.0的方法
因为项目中使用到Z.EntityFramework.Extensions 和 Z.EntityFramework.Plus(免费开源)两个类库,但是Z.EntityFramework.Extensio ...
- hbase-0.94安装方法具体解释
先决条件: 1)java环境,须要安装java1.6以上版本号 2)hadoop环境.因为HBase架构是基于其它文件存储系统的,因此在分布式模式下安装Hadoop是必须的,可是,假设 ...
- kafka 0.11.0.3 源码编译
首先下载 kafka 0.11.0.3 版本 源码: http://mirrors.hust.edu.cn/apache/kafka/0.11.0.3/ 下载源码 首先安装 gradle,不再说明 1 ...
- Kafka 0.11.0.0 实现 producer的Exactly-once 语义(官方DEMO)
<dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients&l ...
- ZooKeeper安装方法具体解释
ZooKeeper安装方式分为两种,一种为单机模式.一个为集群模式,集群模式须要事先正确配置hadoop集群,安装方法參考hadoop-1.2.1安装方法具体解释 单机模式安装: 1.上传并解压zoo ...
- hive 0.11的安装配置
一.上传hive 0.11解压后的文件到linux 1.用的版本是shark站点提供的,可能是针对shark修改了代码. 2.追加mysql.oracle两个jdbc驱动包到lib目录下. 二.配置相 ...
- redis(4.0.11)编译安装
一: redis数据库安装 系统环境:linux系统(centos/redhat):Red Hat Enterprise Linux Server release 6.8 (Santiago) red ...
随机推荐
- js常用操作~~~~将持续更新
1.替换多个模板变量 var s="my javascript is very poor,who can help me?" var reg=/(\w*)my(.*)is(.*)c ...
- Sql Server 如何解决多并发情况下,出现的多个相同ID数据
在数据库中单独创建一张表,保存当前存储状态,“存储过程” 设置访问条件root初始值为“0” 如果root值不为0的时候就不可访问并进行相关操作. 在事务执行前将root值设置为1,事务结束后将ro ...
- Scala-基础-变量与常量
import junit.framework.TestCase import org.junit.Test //变量 //var 代表变量 //val 代表常量 //关键字 class,extends ...
- html5——背景
背景大小 background-size: % %;//宽 高 background-size: 100px 100px;//宽 高 background-size: cover;//覆盖,图片会完全 ...
- 怎么搭建Hibernate对象持久化框架?
DBC:(Java Data Base Connectivity)java数据库连接 java.sql包提供JDBC API,可通过它编写访问数据库的程序代码.其中常用的接口和类包括下面内容: Dri ...
- ASP.NET 缓存(Cache)
ASP.NET提供了在一个ASP.NET应用程序基本上缓存信息的编程功能.该功能和Application对象相似,但它具有在ASP.NET应用程序的生命周期内动态维护缓存信息的能力.在应用程序中缓存数 ...
- Caffe:导入caffePython-PyQt failed
在另一台电脑上使用caffe python版本,显示 Backend Qt5Agg is interactive backend. Turning interactive mode on. ...
- pptp服务故障
pptp服务故障记录 原文地址:http://www.cnblogs.com/caoguo/p/4994512.html 1.pptp部署是遇到开了防火墙端口不能拨号,拨号是提示错误如下: 但是关闭防 ...
- 小程序 之picker-view省市县
代码地址:https://github.com/yangsphp/area-picker
- js的基础运用
总结: 1.定义:分为隐式定义和显式定义可以先定义后赋值. 2.+:当两边都是数值则运行加法运算,若一遍是字符型则进行拼接. 3.数值变字符:数值变量.toString()方法. 字符变数值:通过加一 ...