1 基础环境

  • 1.1 版本预览
    Cnetos 6.5    已安装
Hadoop 2.8 已安装集群
Hive 2.3 待安装
Mysql 5.6 已安装
Spark 2.1.1 已安装
  • 1.2 机器环境

    机192.168.0.251 slave 
    192.168.0.252 master 
    Hadoop:hadoop已做双机无密码登录1.3 工作路径

    *Hadoop:/home/data/app/hadoop/hadoop-2.8.0/etc/hadoop 
    Spark:/home/data/app/hadoop/spark-2.1.1-bin-hadoop2.7 
    Hive数据路径: /user/hive/warehouse/*

2安装

  • 2.1 下载hive

http://hive.apache.org/downloads.html

  • 2.2 下载mysql-connector

http://dev.mysql.com/downloads/connector/j/

  • 2.3 安装

Hive:

Cd /data/software
Rz apache-hive-2.3.0-bin.tar.gz
Tar -zxvf apache-hive-2.3.0-bin.tar.gz
Mv apache-hive-2.3.0-bin /home/data/app/hadoop/

Mysql-connector:

/home/data/app/hadoop/hive-2.3.0/lib
Tar -zxvf mysql-connector-java-5.1.44.tar.gz
Cd mysql-connector-java-5.1.44
Mv mysql-connector-java-5.1.44-bin.jar ../

3 配置

  • 3.1 初始配置

Vim /etc/profile

export HIVE_HOME=/home/data/app/hadoop/hive-2.3.0
export PATH=$PATH:$HIVE_HOME/bin cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties
  • 3.2 hive-env.sh环境配置
export JAVA_HOME=/home/data/software/jdk1.8.0_121   ##Java路径
export HADOOP_HOME=/home/data/app/hadoop/hadoop-2.8.0 ##Hadoop安装路径
export HIVE_HOME=/home/data/app/hadoop/hive-2.3.0 ##Hive安装路径
export HIVE_CONF_DIR=/home/data/app/hadoop/hive-
2.3.0 /conf ##Hive配置文件路径
  • 3.3 创建配置路径
hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -mkdir -p /user/hive/tmp
hdfs dfs -mkdir -p /user/hive/log
hdfs dfs -chmod -R 777 /user/hive/warehouse
hdfs dfs -chmod -R 777 /user/hive/tmp
hdfs dfs -chmod -R 777 /user/hive/log
  • 3.4 hive-site.xml配置

  • 2.4.1 配置连接mysql

<!--hive临时数据 -->
<property>
<name>hive.exec.scratchdir</name>
<value>/user/hive/tmp</value>
</property>
<!--hive数据库的数据文件-->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<!--hive日志-->
<property>
<name>hive.querylog.location</name>
<value>/user/hive/log</value>
</property>
<!--hive连接mysql,mysql存储hive数据库配置信息-->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.0.2513306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hive</value>
</property>
  • 3.4.2 配置tmp路径
mkdir /home/data/app/hadoop/hive-2.3.0/tmp
把{system:java.io.tmpdir} 改成 /home/data/app/hadoop/hive-2.3.0/tmp/
把 {system:user.name} 改成 {user.name}

4 初始化hive

schematool -dbType mysql -initSchema hive hive

5 启动测试

  • 5.1 hive启动
  • 5.1.1 hiveserver 
Cd /home/data/app/hadoop/hive-2.3.0/bin
Nohup ./hiveserver2 &
ps -ef|grep hive|grep -v grep
  • 5.1.2 hive

./hive

Debug 模式:hive -hiveconf hive.root.logger=DEBUG,console
Show databases;
Create database hive_data;
请检查 mysql->hive->dbs表
hadoop fs -ls /user/hive/warehouse
  • 5.2 beeline启动

  • 5.2.1同上先启动hiveserver

  • 5.2.2 hadoop core-site.xml添加配置:

<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>

./beeline

6 任务运行分析webUI

总结:hive运行在hadoop上,数据库文件存储hdfs,job task是mapreduce执行,所以数据库存储是分布式,任务执行也是多节点并行执行 
http://192.168.0.252:8088 

 

4大数据实战系列-hive安装配置优化的更多相关文章

  1. 《OD大数据实战》Hive环境搭建

    一.搭建hadoop环境 <OD大数据实战>hadoop伪分布式环境搭建 二.Hive环境搭建 1. 准备安装文件 下载地址: http://archive.cloudera.com/cd ...

  2. 【大数据】Hadoop单机安装配置

    1.解压缩hadoop-2.7.6.tar.gz到/home/hadoop/Soft目录中 2.创建软链接,方便hadoop升级  ln -s /home/hadoop/Soft/hadoop-2.7 ...

  3. 吴裕雄--天生自然 HADOOP大数据分布式处理:安装配置MYSQL数据库

    安装之前先安装基本环境:yum install -y perl perl-Module-Build net-tools autoconf libaio numactl-libs # 下载mysql源安 ...

  4. 《OD大数据实战》Hive入门实例

    官方参考文档:https://cwiki.apache.org/confluence/display/Hive/LanguageManual 一.命令行和客户端 1. 命令窗口 1)进入命令窗口 hi ...

  5. InfluxDB+Grafana大数据监控系列之数据源配置(二)

    一.Grafana 配置 InfluxDB 数据源 1.1 登录 Granfana 界面选择 InfluxDB 数据源 在前面我们已经部署好相应监控环境,登录Grafana:http://10.223 ...

  6. 吴裕雄--天生自然 HADOOP大数据分布式处理:安装配置Tomcat服务器

    下载链接:https://tomcat.apache.org/download-80.cgi tar -zxvf apache-tomcat-8.5.42.tar.gz -C /usr/local/s ...

  7. 吴裕雄--天生自然 HADOOP大数据分布式处理:安装配置JAVA

    tar -xzvf jdk-8u151-linux-x64.tar.gz -C /usr/local/src sudo vim /etc/profile .编辑/etc/profile # JAVA ...

  8. 《OD大数据实战》驴妈妈旅游网大型离线数据电商分析平台

    一.环境搭建 1. <OD大数据实战>Hadoop伪分布式环境搭建 2. <OD大数据实战>Hive环境搭建 3. <OD大数据实战>Sqoop入门实例 4. &l ...

  9. 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

    引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...

  10. 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

    引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单 ...

随机推荐

  1. 随机分布和随机数生成——R语言

    在人们的生活中,很多场景都需要用到随机数,例如福利彩票,车牌摇号,公共用房分配等.在用数学模型, 包括概率统计模型处理实际应用中的问题时, 我们希望建立的模型能够尽可能地符合实际情况.但是,实际情况是 ...

  2. R语言网络数据爬虫之三个问题

    现在大家对爬虫的兴趣不断高涨,R和PYTHON是两个非常有力的爬虫工具.Python倾向于做大型爬虫,与R相比,语法相对复杂,因此Python爬虫的学习曲线会相对陡峭.对于那些时间宝贵,又想从网上获取 ...

  3. 【Diary】CSP-S2 2021 游记 & NOIP 备赛发疯日记

    Day 0 两个极端的回跳. .....不行啊. 我快输不起了........... ------------------------------- 早上被生物钟强行唤醒,逼自己懒床到6:40. 弹琴 ...

  4. DG:重启之后主备数据重新同步

    问题描述:本来配置好的DG第二天重启之后,发现主备库数据不能同步,在主库上执行日志切换以及创建表操作都传不到备库上,造成这种错误的原因是主库实例断掉后造成备库日志与主库无法实时接收 主库:orcl  ...

  5. classmethod和staticmethod装饰器

    """ 两个装饰器 @classmethod 把一个对象绑定的方法,修改成为一个类方法 1.在方法中仍然可以引用类中的静态变量 2.可以不用实例化对象,就直接使用类名在外 ...

  6. 使用CodeArts发布OBS,函数工作流刷新CDN缓存

    摘要:上次通过OBS和CDN部署来Hexo网站,但是每次我们不可能都自己编译然后在上传到OBS,不然太麻烦了,所以我们需要构建流水线,通过PUSH Markdown来发布文章. 本文分享自华为云社区& ...

  7. React Native 开发环境搭建——nodejs安装、yarn安装、JDK安装多个版本、安装Android Studio、配置Android SDK的环境变量

    一.React Native介绍 二.开发环境的搭建 2.1.Node.js安装 Node.js要求14版或更新 https://nodejs.org/en 查看版本: 2.2.yarn安装 Yarn ...

  8. 深度学习02-03(图像处理、OpenCV实验案例)

    OpenCV实验案例 文章目录 OpenCV实验案例 一.OpenCV安装 1. OpenCV介绍 2. 安装 二.OpenCV基本操作 1. 图像读取与保存 1)读取.图像.保存图像 2. 图像色彩 ...

  9. [Pytorch框架]3.2 MNIST数据集手写数字识别

    文章目录 3.2 MNIST数据集手写数字识别 3.2.1 数据集介绍 3.2.2 手写数字识别 3.2 MNIST数据集手写数字识别 import torch import torch.nn as ...

  10. ChatGPT Plugin 插件开发:基于 ASP.NET Core Minimal API

    前言 这是一篇ChatGPT插件开发教程,描述如何使用 ASP.NET Core Minimal API 开发 ChatGPT 插件,以最简单的 Todo List 指导示例作为入门教程. 这个Tod ...