5.配置hive

5.1 hive下载地址

http://mirror.bit.edu.cn/apache/hive/

解压缩

[root@master ~]# tar xf apache-hive-3.1.2-bin.tar.gz

[root@master ~]# mv apache-hive-3.1.2-bin /usr/local/hive

5.2准备数据库hive

192.168.101.54提供hive服务的数据库hive,用户密码均为hive

建表语句

create database hive default character set utf8;

grant all privileges on hive.* to 'hive'@'%' identified by 'hive';

flush privileges;

5.3配置 Hive

a重命名以下配置文件:

cd /usr/local/hive/conf/

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

cp hive-log4j2.properties.template hive-log4j2.properties

cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

b修改 hive-env.sh:

export JAVA_HOME=/usr/local/jdk  

export HADOOP_HOME=/usr/local/hadoop   

export HIVE_HOME=/usr/local/hive

export HIVE_CONF_DIR=$HIVE_HOME/conf    

c修改 hive-site.xml:

修改对应属性的 value 值

vi hive-site.xml

  <property>

    <name>hive.exec.scratchdir</name>

    <value>/tmp/hive-${user.name}</value>

    <description>HDFS root scratch dir for Hive jobs which gets

    created with write all (733) permission. For each connecting user,

    an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created,

    with ${hive.scratch.dir.permission}.

    </description>

  </property>

  <property>

    <name>hive.exec.local.scratchdir</name>

    <value>/tmp/${user.name}</value>

    <description>Local scratch space for Hive jobs</description>

  </property>

  <property>

    <name>hive.downloaded.resources.dir</name>

    <value>/tmp/hive/resources</value>

    <description>Temporary local directory for added resources in the remote

    file system.</description>

  </property>

  <property>

    <name> hive.querylog.location</name>

    <value>/tmp/${user.name}</value>

    <description>Location of Hive run time structured log file</description>

  </property>

  <property>

    <name>hive.server2.logging.operation.log.location</name>

    <value>/tmp/${user.name}/operation_logs</value>

    <description>Top level directory where operation logs are stored if logging functionality is enabled</description>

  </property>

d配置 Hive Metastore

Hive Metastore 是用来获取 Hive 表和分区的元数据,本例中使用 mariadb 来存储此类元数据。

将 mysql-connector-java-5.1.32-bin.jar 放入 $HIVE_HOME/lib 下

并在 hive-site.xml 中配置 MySQL 数据库连接信息。

<property>

    <name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://192.168.101.54:3306/hive</value>

</property>

(下图内容以上述文本为准)

<property>

    <name>javax.jdo.option.ConnectionDriverName</name>

    <value>com.mysql.jdbc.Driver</value>

</property>

(下图内容以上述文本为准)

<property>

    <name>javax.jdo.option.ConnectionUserName</name>

    <value>hive</value>

</property>

(下图内容以上述文本为准)

<property>

    <name>javax.jdo.option.ConnectionPassword</name>

    <value>hive</value>

</property>

(下图内容以上述文本为准)

e为 Hive 创建 HDFS 目录

start-dfs.sh   #如果在安装配置hadoop是已经启动,则此命令可省略

hdfs dfs -mkdir /tmp

hdfs dfs -mkdir -p /usr/hive/warehouse

hdfs dfs -chmod g+w /tmp

hdfs dfs -chmod g+w /usr/hive/warehouse

f hive-site.xml

  3213       Ensures commands with OVERWRITE (such as INSERT OVERWRITE) acquire Exclusive locks fortransactional tables.  This ensures that inserts (w/o over

        write) running concurrently

删除&#*:

5.4初始化schematool

添加环境变量

vim /etc/profile

#hive  

export HIVE_HOME=/usr/local/hive

export PATH=$PATH:$HIVE_HOME/bin

source /etc/profile

从 Hive 2.1 版本开始, 在启动 Hive 之前需运行 schematool 命令来执行初始化操作:

schematool -dbType mysql -initSchema

5.5启动 Hive,输入命令 Hive

5.6测试 Hive

在 Hive中创建一个表:

hive> create table test_hive(id int, name string)

> row format delimited fields terminated by '\t'

#字段之间用tab键进行分割

> stored as textfile;

# 设置加载数据的数据类型,默认是TEXTFILE,如果文件数据是纯文本,就是使用 [STORED AS TEXTFILE],然后从本地直接拷贝到HDFS上,hive直接可以识别数据

hive> show tables;

可以看到表已经创建成功,输入 quit ; 退出 Hive,接下来以文本形式创建数据:

进入 Hive,导入数据:

hive> load data local inpath '/opt/test_db.txt' into table test_hive;

hive> select * from test_hive;

5.7后台运行hiveserver2

远程访问,开放10000端口。10002为beeline的GUI界面。

运行服务

[root@master ~]# nohup hive –service hiveserver2 &

[root@master ~]# netstat -aunltp |grep 10000

[root@master ~]# ps -aux| grep hiveserver2

复制jar包

[root@master lib]# cp /usr/local/jdk/lib/tools.jar /usr/local/hive/lib/

hadoop部署安装(六)hive的更多相关文章

  1. Hadoop 2.2.0部署安装(笔记,单机安装)

    SSH无密安装与配置 具体配置步骤: ◎ 在root根目录下创建.ssh目录 (必须root用户登录) cd /root & mkdir .ssh chmod 700 .ssh & c ...

  2. ubuntu18.04 安装hadoop 2.7.3+hive 2.3.4

    1. 安装hadoop 详细请参见本人的另外一片博文<Hadoop 2.7.3 分布式集群安装> 2. 下载hive 2.3.4 解压文件到/opt/software -bin.tar.g ...

  3. HIVE部署安装(笔记)

    1.下载hive:wget http://mirrors.cnnic.cn/apache/hive/hive-0.12.0/hive-0.12.0.tar.gz2.解压hive安装文件 tar -zv ...

  4. Hadoop之中的一个:Hadoop的安装部署

    说到Hadoop不得不说云计算了,我这里大概说说云计算的概念,事实上百度百科里都有,我仅仅是copy过来,好让我的这篇hadoop博客内容不显得那么单调.骨感.云计算近期今年炒的特别火,我也是个刚開始 ...

  5. hadoop生态圈安装详解(hadoop+zookeeper+hbase+pig+hive)

    -------------------------------------------------------------------* 目录 * I   hadoop分布式安装   * II zoo ...

  6. Hadoop教程(五)Hadoop分布式集群部署安装

    Hadoop教程(五)Hadoop分布式集群部署安装 1 Hadoop分布式集群部署安装 在hadoop2.0中通常由两个NameNode组成,一个处于active状态,还有一个处于standby状态 ...

  7. hive学习(一)hive架构及hive3.1.1三种方式部署安装

    1.hive简介 logo 是一个身体像蜜蜂,头是大象的家伙,相当可爱. Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据.它架构在Hadoop之上,总归为大数据,并使得查询和分析方便 ...

  8. Hadoop 部署之 Hive (五)

    目录 一.Hive 简介 1.什么是 Hive 2.为什么使用 Hive 3.Hive 的特点 4.Hive 的架构 二.Hive 安装 1.MySQL 安装(datanode01) 2.MySQL ...

  9. mac安装Hadoop,mysql,hive,sqoop教程

    在安装Hadoop,mysql,hive之前,首先要保证电脑上安装了jdk 一.配置jdk 1. 下载jdk http://www.oracle.com/technetwork/java/javase ...

  10. Hadoop学习---安装部署

    hadoop框架 Hadoop使用主/从(Master/Slave)架构,主要角色有NameNode,DataNode,secondary NameNode,JobTracker,TaskTracke ...

随机推荐

  1. 【忍者算法】从扫雷游戏到矩阵操作:探索矩阵置零问题|LeetCode 73 矩阵置零

    从扫雷游戏到矩阵操作:探索矩阵置零问题 生活中的算法 想象你在玩扫雷游戏,当你点到一个地雷时,不仅这个格子会被标记,与它同行同列的格子也都会受到影响.或者想象一个办公室的座位表,如果某个位置发现了感染 ...

  2. Luogu P2468 SDOI2010 粟粟的书架 题解 [ 紫 ] [ 可持久化线段树 ] [ 二分 ] [ 前缀和 ]

    粟粟的书架:二合一的缝合题. 前一半测试点 此时是 \(200\times 200\) 的二维问题,首先考虑暴力怎么写,显然是每次询问把查的全扔进大根堆里,然后一直取堆顶直到满足要求或者取空. 那么这 ...

  3. autMan奥特曼机器人-实时翻译的用法

    一.基本配置 访问并登录百度翻译开放平台:https://api.fanyi.baidu.com/ 进入开发者信息获取 APP ID和密钥,并开通"通用文本翻译"服务 autMan ...

  4. Ansible - [01] 入门&安装部署

    自动化运维工具,可以批量远程其他主机并进行管理操作 一.什么是 Ansible Ansible首次发布于2012年,作者:Michael DeHaan,同时也是Cobbler的作者,Ansible于2 ...

  5. 标题Spark Mavem项目在本地测试报错 : Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf

    Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/SparkConf at S ...

  6. CF2067D Object Identification

    CF2067D - Object Identification 题目大意 有一个对你公开的 \(x\) 数组和一个对你隐藏的 \(y\) 数组,保证没有任何两个相同的 \(\{x_i, y_i\}\) ...

  7. 学习理论:单阶段代理损失的(H, R) - 一致界证明

    1 导引 我们在上一篇博客<学习理论:预测器-拒绝器多分类弃权学习>中介绍了弃权学习的基本概念和方法,其中包括了下列针对多分类问题的单阶段预测器-拒绝器弃权损失\(L_{\text{abs ...

  8. 【Python】转载一个python 爬虫的帖子

    原帖地址 原帖标题:爬取图网的4K图片自动保存本地 https://www.52pojie.cn/thread-1809600-1-1.html (出处: 吾爱破解论坛) python 代码 impo ...

  9. (Python)用栈实现计算器的原理及实现

    前言 我们日常使用的计算器是怎么实现计算的呢?能自己判断运算符的优先级去计算,能处理括号的匹配,这些都是怎么实现的呢? 一个大家熟知的答案是用栈,好的,那么为什么要用栈?为什么栈能实现呢? 目录 前言 ...

  10. Unity开发Hololens2—环境配置

    博客地址:https://www.cnblogs.com/zylyehuo/ 配置如下: win11 专业版 Unity2018.4.26f1 / 2019.4.11f1 Hololens2 VS20 ...