Hive安装与启动
一、mysql安装
在配置Hive之前一般都需要安装和配置MySQL,因为Hive为了能操作HDFS上的数据集,那么他需要知道数据的切分格式,如行列分隔符,存储类型,是否压缩,数据的存储地址等信息。
为了方便以后操作所以他需要将这些信息通过一张表存储起来,然后将这张表(元数据)存储到mysql中。为了啥存储到mysql里(实际是远程mysql),因为hive本身就是一个解释器,所以他不存储数据,可以参考上一篇文章[MySQL安装]进行安装(https://www.cnblogs.com/ruo1101/p/17470047.html "MySQL安装")
二、Hive的安装与启动
1.安装Hive
1.1 下载Hive
官方下载地址:https://archive.apache.org/dist/hive/
1.2 上传文件到hadoop集群
将准备好Hive文件安装包,将压缩包上传到到事先准备好的目录:/opt/software
再将压缩文件mysql-connector-java-5.1.48.jar上传到目录:/opt/software
1.3 将压缩包解压到文件目录
进入hive压缩文件所在目录:/opt/software,再执行以下代码解压hive文件到文件目录:/opt/module
tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module
将目录(/opt/module/apache-hive-3.1.3-bin)重命名为(/opt/module/hive)
mv /opt/module/apache-hive-3.1.3-bin /opt/module/hive
再将压缩文件mysql-connector-java-5.1.48.jar解压到目录:/opt/module/hive/lib
cp mysql-connector-java-5.1.48.jar /opt/module/hive/lib
1.4 修改Hive配置
需要使用root权限
进入hive配置目录:/opt/module/hive/conf/
并且对hive配置文件(hive-deafule.xml.template)进行重命名
cp /opt/module/hive/conf/hive-deafule.xml.template hive-site.xml
或者
mv /
进入hive目录对文件hive-site.xml进行配置
或者直接创建一个配置文件hive-site.xml
将
hive-deafule.xml.template中的所需配置复制到hive-site.xml并针对修改其属性
修改hive-site.xml文件属性
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!--
Licensed to the Apache Software Foundation (ASF) under one or more
contributor license agreements. See the NOTICE file distributed with
this work for additional information regarding copyright ownership.
The ASF licenses this file to You under the Apache License, Version 2.0
(the "License"); you may not use this file except in compliance with
the License. You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
--><configuration>
<!-- WARNING!!! This file is auto generated for documentation purposes ONLY! -->
<!-- WARNING!!! Any changes you make to this file will be ignored by Hive. -->
<!-- WARNING!!! You must make your changes in hive-site.xml instead. -->
<!-- Hive Execution Parameters -->
<property>
<!-- 链接的URL -->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
<description>
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property>
<!-- 使用的驱动 -->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.cj.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<!-- 用户名 -->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>Username to use against metastore database</description>
</property>
<!-- 密码 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
<!-- 元数据存储版本验证 -->
<property>
<name>hive.metastore.schema.varification</name>
<value>false</value>
<description>
Enforce metastore schema version consistency.
True: Verify that version information stored in is compatible with one from Hive jars. Also disable automatic
schema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensures
proper metastore schema migration. (Default)
False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
</description>
</property>
<!-- 元数据存储权限 -->
<property>
<name>hive.metastore.schema.verification.record.version</name>
<value>false</value>
<description>
When true the current MS version is recorded in the VERSION table. If this is disabled and verification is
enabled the MS will be unusable.
</description>
</property>
<!-- Hive在hdfs中的工作目录 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
</configuration>
1.5 修改环境变量
需要root权限
进入环境变量目录文件:/etc/profile.d/my_env.sh
vim /etc/profile.d/my_env.sh
追加写入以下内容:
#Hive
export HIVE_HOME=/opt/module/hive
export PATH=$PAH:$HIVE_HOME/bin
刷新环境变量
source /etc/profile
1.6 解决jar冲突问题
Hive由日志slf4j的配置,但是我们的yarn自己也有,两者会冲突。
需要root权限
先刷新环境变量,再执行以下代码
mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar.bak
解决版本对应问题
mv $HIVE_HOME/lib/guava-19.0.jar $HIVE_HOME/lib/guava-19.0.jar.bak
cp /opt/module/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jar /opt/module/hive/lib/
1.7 初始化Hive元数据仓库
schematool -initSchema -dbType mysql -verbose
保证数据库已创建,数据名与hive配置中的数据库保持一致。
mysql所在集群机器,启动mysql【hadoop102】,mysql与yarn同在一台机器。
检查mysql数据库是否存在,是否初始化过,如果已经初始化过则先将数据库删除,重新初始化。
2. 启动Hive
2.1 启动hadoop集群
Hive的启动依赖于hadoop的启动,必须先启动hadoop(dfs以及yarn).
2.2 启动hive【hadoop10】
hive # 启动hive命令
一般报错即为dfs安全模式的原因,关闭安全模式即可: hdfs dfsadmin -safemode leave
用root用户启动报错(权限有问题)如下:
chown: changing ownership of '/tmp': Permission denied. user=root is not the owner of inode=/tmp
需用使用
export HADOOP_USER_NAME=普通用户然后使用
hadoop fs -chmod -R 777 /tmp再次启动
hive即可
2.3 验证安装环境
show databases
3. Hive的常用基本操作
3.1 查看当前存在数据库
show databases;
3.2 选择一个库
use 数据库名;
3.3 查看当前库的表
show tables;
3.4 查看一个表
desc 表名
3.5 显示表头,数据库名
在hive中设置参数,临时生效,退出hive后失效
# 显示数据库名,该参数默认值为false
set hive.cli.print.current.db=true;
# 显示列名,该设置会显示表名.列名,默认值为false
set hive.cli.print.header=true;
# 不显示表名,默认值为true
set hive.resultset.use.unique.column.names=false;
更改hive-site.xml使配置永久生效
<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>是否打印表头,默认值为false,即不打印</description>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>是否显示数据库名,默认值为false,即不显示</description>
</property>
<property>
<name>hive.resultset.use.unique.column.names</name>
<value>false</value>
<description>表头中是否显示表名,默认值为true,即显示</description>
</property>
4 案列操作
新建一个表
create table test (id int,name string);
插入一条数据
insert into test values(1,'RuoZoe');
Hive安装与启动的更多相关文章
- 【大数据系列】hive安装及启动
一.安装好jdk和hadoop 二.下载apache-hive https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-2.3.0/ 三.解压到安装 ...
- Hive安装配置指北(含Hive Metastore详解)
个人主页: http://www.linbingdong.com 本文介绍Hive安装配置的整个过程,包括MySQL.Hive及Metastore的安装配置,并分析了Metastore三种配置方式的区 ...
- hive安装--设置mysql为远端metastore
作业任务:安装Hive,有条件的同学可考虑用mysql作为元数据库安装(有一定难度,可以获得老师极度赞赏),安装完成后做简单SQL操作测试.将安装过程和最后测试成功的界面抓图提交 . 已有的当前虚拟机 ...
- Hive安装与部署集成mysql
前提条件: 1.一台配置好hadoop环境的虚拟机.hadoop环境搭建教程:稍后补充 2.存在hadoop账户.不存在的可以新建hadoop账户安装配置hadoop. 安装教程: 一.Mysql安装 ...
- 【转】 hive安装配置及遇到的问题解决
原文来自: http://blog.csdn.net/songchunhong/article/details/51423823 1.下载Hive安装包apache-hive-1.2.1-bin.ta ...
- HIVE安装配置
Hive简介 Hive 基本介绍 Hive 实现机制 Hive 数据模型 Hive 如何转换成MapReduce Hive 与其他数据库的区别 以上详见:https://chu888chu888.gi ...
- 十三、Hadoop学习笔记————Hive安装先决条件以及部署
内嵌模式,存储于本地的Derby数据库中,只支持单用户 本地模式,支持多用户多会话,例如存入mysql 下载解压hive后,进到conf路径,将模板拷贝 出现该错误表示权限不够 该目录未找到 新建一个 ...
- hive安装详解
1.安装MYSQL simon@simon-Lenovo-G400:~$ sudo apt-get install mysql-server simon@simon-Lenovo-G400:~$ su ...
- [hive] hive 安装、配置
一.hive安装 1.官网下载 1.2.2版本 http://apache.fayea.com/hive/hive-1.2.2/ 2. 解压,此处目录为 /opt/hadoop/hive-1.2.2 ...
- hive 安装 和基本使用
hive是什么: hive是一个数据仓库,hive不是一个数据库,hive 不没有自己的数据,hive的数据存在hdfs 中,hive 依赖一个关系型数据库来存储 自己在 hdfs 中的数据的映射关系 ...
随机推荐
- odoo 开发入门教程系列-QWeb简史
QWeb简史 到目前为止,我们的房地产模块的界面设计相当有限.构建列表视图很简单,因为只需要字段列表.表单视图也是如此:尽管使用了一些标记,如<group>或<page>,但在 ...
- Linux云计算运维工程师day28shell编程基础
一. 1.全局变量.环境变量 Export OLDOBY="I am a oldboy." Echo OLDOBY OLDOBY="I am a oldboy.&quo ...
- Python 持久化-文件
文件 长久保存信息的一种数据信息集合 常用操作 打开关闭(文件一旦打开,需要关闭操作) 读写内容 查找 open函数 open函数负责打开文件,带有很多参数 第一个参数: 必须有,文件的路径和名称 m ...
- 一文吃透Tomcat核心知识点
架构 首先,看一下整个架构图.最全面的Java面试网站 接下来简单解释一下. Server:服务器.Tomcat 就是一个 Server 服务器. Service:在服务器中可以有多个 Service ...
- websocket多实例推送解决方案-数据实时展示
需求 需要前端展示实时的订单数据信息.如下图所示,实时下单实时页面统计更新展示 思路方案 前端使用websocket 建立通信 后端监听数据库的binglog变更,实时得到最新数据,推送到前端 现状及 ...
- 使用 shell 脚本自动申请进京证 (六环外) —— debug 过程
问题现象 用 shell 脚本写了一个自动办理六环外进京证的工具 <使用 shell 脚本自动申请进京证 (六环外)>,然而运行这个脚本总是返回以下错误信息: { "msg&qu ...
- 2022-03-18:arr数组长度为n, magic数组长度为m 比如 arr = { 3, 1, 4, 5, 7 },如果完全不改变arr中的值, 那么收益就是累加和 = 3 + 1 + 4 +
2022-03-18:arr数组长度为n, magic数组长度为m 比如 arr = { 3, 1, 4, 5, 7 },如果完全不改变arr中的值, 那么收益就是累加和 = 3 + 1 + 4 + ...
- Redis的三种持久化策略及选取建议
概述 Redis是一个基于内存的高性能的键值型数据库,它支持三种不同的持久化策略:RDB(快照).AOF(追加文件).混合.这三种策略各有优缺点,需要根据不同的场景和需求进行选择和配置.本文将介绍这三 ...
- LeetCode 周赛 345(2023/05/14)体验一题多解的算法之美
本文已收录到 AndroidFamily,技术和职场问题,请关注公众号 [彭旭锐] 提问. 往期回顾:LeetCode 双周赛第 104 场 · 流水的动态规划,铁打的结构化思考 周赛概览 T1. 找 ...
- Python随机UserAgent库,让你不再手动敲UA!
前言 之前也懵懵懂懂写过python爬虫,但是经常被网站的反爬机制干趴下,然后手动写了个随机UA库,情况才好些.今天在互联网畅游时发现,有一个能够产生随机UA的第三方库! 安装第三方库 老生常谈啦,p ...