1.Hive安装与配置

Hive官网:https://hive.apache.org/ 
1. 安装文件下载 
从Apache官网下载安装文件 http://mirror.bit.edu.cn/apache/hive/ 
(apache-hive-2.3.2-bin.tar.gz) 
 
还有我选择mysql作为元数据存储,所以还需下载jdbc驱动包。(mysql-connector-java-5.1.45.tar) 
下载地址:https://dev.mysql.com/downloads/connector/j/ 
 
要把相应的驱动复制到hive-2.3.2/lib文件夹下(mysql-connector-java-5.1.38-bin.jar) 
2. 安装mysql 
请参考Hive集成mysql数据库 
3. 解压安装文件 
tar -zxf apache-hive-2.3.2-bin.tar.gz 
4. 设置环境变量 
vim ~/.bashrc 
 
source ~/.bashrc 
5. 修改hive-site.xml文件 
hive-site.xml详细配置了解:Hive 配置详细说明 
vim apache-hive-2.3.2-bin/conf/hive-site.xml 
 
6. 修改hive-env.sh文件 
cp hive-env.sh.template hive-env.sh 
vim hive-env.sh 
export HADOOP_HOME=/home/hadoop/opt/hadoop-2.9.0 
 
保存source hive-env.sh使文件生效 
7. 创建hive-site.xml软连接 
cd opt/spark-2.2.1-bin-hadoop2.7/conf 
ln -s /home/hadoop/opt/apache-hive-2.3.2-bin/conf/hive-site.xml hive-site.xml 
 
之后 

2.Hive的运行

  1. 初始化 
    cd opt/apache-hive-2.3.2-bin/bin 
    ./schematool -dbType mysql -initSchema 

    之后进入mysql 
    mysql -uroot -p 
     
    查看数据库show databases; 
    是否生成performance_schema 
  2. 打开hiveserver2 
    ./hiveserver2

HiveServer2(在Hive 0.11中引入)有它自己的CLI叫做Beeline。hiv病毒现在已经被弃用,因为它缺少多用户、安全以及其他的HiveServer2的功能。从壳层跑出: 
3. 运行hive 
由于配置过环境变量可以直接执行hive 
hive 
 
4. Hive Beeline使用 
HiveServer2提供了一个新的命令行工具Beeline,它是基于SQLLine CLI的JDBC客户端。

./beeline -u jdbc:hive2://localhost:10000

Beeline是从HiveServer2的JDBC URL开始的,它依赖于HiveServer2启动的地址和端口。默认情况下,这将是(localhost:10000),所以地址会像jdbc:hive2:/ / localhost:10000。 

现在就可以使用了

Hive使用与安装步骤的更多相关文章

  1. Hive的架构原理&Hive的安装步骤

    Hive架构图 元数据默认数据库是:Derby.开发使用MySQL Hive如何将SQL语句翻译成MapReduce的? 1.使用SQL解析器解析SQL语句 2.使用编译器进行编译逻辑 3.使用优化器 ...

  2. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  3. hive-1.2.1安装步骤

    一.Hive安装和配置 1.先决条件 已经安装好hadoop-2.4.1,hbase-1.0.0. 2.下载Hive安装包 当前Hive可到apache官网下载,选择的是hive-1.2.1.运行: ...

  4. hive1.2.1安装步骤(在hadoop2.6.4集群上)

    hive1.2.1在hadoop2.6.4集群上的安装 hive只需在一个节点上安装即可,这里再hadoop1上安装 1.上传hive安装包到/usr/local/目录下 2.解压 tar -zxvf ...

  5. hadoop入门学习教程--DKHadoop完整安装步骤

    使用hadoop版本是DKH标准三节点发行版,DKHadoop版本的易用性比较好,环境部署要简单的多,参考此篇安装前请先下载DKHadoop版本,网盘链接:https://pan.baidu.com/ ...

  6. Hive环境的安装部署(完美安装)(集群内或集群外都适用)(含卸载自带mysql安装指定版本)

    Hive环境的安装部署(完美安装)(集群内或集群外都适用)(含卸载自带mysql安装指定版本) Hive 安装依赖 Hadoop 的集群,它是运行在 Hadoop 的基础上. 所以在安装 Hive 之 ...

  7. Hive介绍和安装部署

        搭建环境 部署节点操作系统为CentOS,防火墙和SElinux禁用,创建了一个shiyanlou用户并在系统根目录下创建/app目录,用于存放 Hadoop等组件运行包.因为该目录用于安装h ...

  8. Hive的mysql安装配置

    一.MySQL的安装 Hive的数据,是存在HDFS里的.此外,hive有哪些数据库,每个数据库有哪些表,这样的信息称之为hive的元数据信息. 元数据信息不存在HDFS,而是存在关系型数据库里,hi ...

  9. 如何搭建SVN服务器,详细安装步骤。

    SVN服务器端安装 下载: VisualSVN是一款图形化svn服务器.官网 http://www.visualsvn.com/server/ 下载地址: http://www.visualsvn.c ...

随机推荐

  1. React+Redux+Dva学习

    Redux提供一些api来管理数据,并且只能通过它提供的方式来修改.Redux包括三个部分:store, action,reducer. store:是一个规范的state,就像一个有条理的数据库,R ...

  2. vue 项目中如何在页面刷新的状态下保留数据

    1.问题:在vue项目中,刷新页面之后,我当前打开的所有菜单,都消失,我如何实现刷新之后页面仍然是刷新之前的状态 效果图: 解决方法: 使用vuex作状态管理: 将vuex里面的数据同步更新到loca ...

  3. WebApi 跨域解决方案 --CORS

    跨站HTTP请求(Cross-site HTTP request)是指发起请求的资源所在域不同于请求指向的资源所在域的HTTP请求. 比如说,我在Web网站A(www.a.com)中通过<img ...

  4. Ubuntu下编译boost for Android

    下载https://github.com/moritz-wundke/Boost-for-Android 解压后进入目录 运行 ./build-android.sh $(NDK_ROOT) NDK_R ...

  5. 第十一章· MHA高可用及读写分离

    一.MHA简介 1.1.作者简介 松信嘉範: MySQL/Linux专家 2001年索尼公司入职 2001年开始使用oracle 2004年开始使用MySQL 2006年9月-2010年8月MySQL ...

  6. pandas中Series对象下的str所拥有的方法(df["xx"].str)

    在使用pandas的时候,经常要对DataFrame的某一列进行操作,一般都会使用df["xx"].str下的方法,但是都有哪些方法呢?我们下面来罗列并演示一下.既然是df[&qu ...

  7. 【网络协议】动态主机配置协议DHCP

    动态主机配置协议DHCP 当某组织获得一块地址后,就可以为本组织内的主机或者路由器分配IP地址.这个分配工作可以由系统管理员手动通过网络管理工具来完成.也可以由动态主机配置协议(Dynamic Hos ...

  8. 解决remix在线编译器连接本地私有链环境不成功的问题

    一.部署合约到私有链环境 选择"environment"里的"Web3 Provider" 弹出RPC连接地址输入框 输入我们Geth客户端安装服务器的IP:9 ...

  9. Selenium(2)

    testing123456peter123456rose123456 一.常见的运行错误: 1.[error] Timed out after 30000ms Timed out:超时 after:之 ...

  10. unzip解压3G或者4G以上文件失败的解决方法

    Linux下,使用unzip解压时,报错:End-of-central-directory signature not found.  Either this file is nota zipfile ...